EP3440501A1 - Method and device for determining parameters for spectacle fitting - Google Patents

Method and device for determining parameters for spectacle fitting

Info

Publication number
EP3440501A1
EP3440501A1 EP17715456.4A EP17715456A EP3440501A1 EP 3440501 A1 EP3440501 A1 EP 3440501A1 EP 17715456 A EP17715456 A EP 17715456A EP 3440501 A1 EP3440501 A1 EP 3440501A1
Authority
EP
European Patent Office
Prior art keywords
depth information
head
parameters
image
fitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP17715456.4A
Other languages
German (de)
French (fr)
Inventor
Tobias Breuninger
Holger Wegendt
Oliver Schwarz
Jeremias GROMOTKA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Vision International GmbH
Carl Zeiss AG
Original Assignee
Carl Zeiss Vision International GmbH
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Vision International GmbH, Carl Zeiss AG filed Critical Carl Zeiss Vision International GmbH
Publication of EP3440501A1 publication Critical patent/EP3440501A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames

Definitions

  • the present application relates to methods and apparatus for determining
  • Image capture devices are used to generate stereo image data from a person's head or parts of the head. From the stereo image data, a three-dimensional model of the head is then calculated. Based on the three-dimensional model, desired optical parameters can be determined. A corresponding method is also described. Instead of the pair of image recording devices, a pattern projection can also be used in a variant described in this document as an alternative.
  • the person to be examined is positioned in front of the device and the image recording devices then take corresponding images of the head or parts thereof.
  • This can lead to inaccuracies in the positioning of the person, i. the person may be positioned differently from a desired nominal position, in particular a desired nominal distance. This can make it difficult to determine accurate dimensions from the images taken with the image pickup devices needed to determine the parameters.
  • it requires the approach of EP 1 844 363 B2, in image pairs derived from the pair of
  • Imaging facilities are recorded, corresponding points or
  • the measuring device determines the distance of at least one eye to an image pickup device of the measuring device.
  • Use position of a pair of glasses or spectacle frame is then determined taking into account the determined distance.
  • US 2010/0220285 A1 discloses a method for determining parameters for
  • Eyewear adaptation in particular a pupillary distance, known, in which a distance of a device used to a patient is measured and the pupillary distance is measured on the basis of the distance over a scale.
  • DE 689 28 825 T2 shows a reflection of a lighting on an optical axis of a camera.
  • a light field camera is disclosed in DE 10 2014 108 353 A1.
  • Eyeglass adjustment especially with inaccurate positioning of a person to be examined as mentioned above, is improved.
  • a method of determining parameters for adjusting glasses comprising: acquiring depth information regarding a head of a user, the depth information including a distance between the head of the user and a device used for detecting, and determining parameters for spectacle fitting based on the depth information.
  • the depth information can Also, several distances between the head and the device at different locations of the head, which are detected at the same time or at different times include.
  • a 2D image (hereinafter also simply referred to as an image) of the head is taken, wherein the taking of the 2D image and the detection of the
  • Depth information on a common optical axis takes place.
  • eyeglass adaptation generally refers to an adaptation of spectacles to a specific person, in particular to the person's head.
  • Such an eyewear adaptation can, for example, begin with the selection of a specific type of eyeglass frame, in particular a specific make of eyeglass frame.
  • An expert such as an optometrist, will usually check to see if the eyeglass frame matches the person's anatomy (e.g., size of the frame, width of the bridge of the nose, strap length). Subsequently, the seat of the socket is checked (e.g.
  • Eyeglass centering called. Some of the measured parameters affect the lens power, e.g. the corneal vertex distance. Other parameters determine how the lenses are to be positioned in the socket or how they fit into the socket
  • parameters for spectacle fitting are generally understood to mean information which is needed or usable for the spectacle fitting described above. These include, for example, dimensions relating to the head of the person, in particular regarding the eye area, a type of spectacle frame and
  • the parameters for spectacle fitting may in particular be centering parameters which can be used for the spectacle lens centering explained above and which are e.g.
  • the monocular pupillary distance is the distance between the center of the pupil and the midline of the person's nose or bridge
  • the glasses adjustment parameters may also include dimensions of a spectacle frame.
  • the parameters for adjusting the glasses can be determined on the basis of a real spectacle frame worn by the person or also on the basis of a virtual spectacle frame which is adapted to a model of a head which is created on the basis of the depth information. In this case, the use of a virtual spectacle frame, the parameters for
  • Eyeglass fitting also includes a type of a selected eyeglass frame or parameters representing the selected eyeglass frame, e.g. Dimensions of the same, describe include.
  • the method may further comprise determining a current head position (actual head position), in particular based on the depth information, e.g. compared with a desired head position.
  • the head position may include the position of the head in space as well as its orientation (e.g., tilt, line of vision).
  • the head position may, for example, a lateral head rotation (ie about the body axis of the person), a head position in the axial direction (relative to the measuring device) a lateral head inclination (ie in the direction of a shoulder) or a head inclination along the body axis (ie forward or backward ), wherein the head position relative to the device according to the invention, for example to the depth information detection device, can be determined.
  • Head positions relative to the device according to the invention are relevant, for example, to the correct placement of the person in front of the device according to the invention (for example within the measuring volume).
  • Head tilt (along the body axis) has a strong influence on the measurement of the
  • the parameters for adjusting the glasses are determined on the basis of the determined actual head position. In this way, for example, deviations from the desired head position and / or head position (eg in the axial direction) relative to a device used can be taken into account in determining the parameters for spectacle fitting.
  • the actual head position can be as above described include a lateral inclination of the head or an inclination of the head forward or backward. This is particularly relevant if the natural, habitual head posture of the person at the time of determining the parameters for spectacle fitting is to be taken into account, since the inclination of the head determines the determination of some parameters
  • Spectacle fitting e.g. the determination of a premonition or the determination of an overview height
  • the person may be asked to take the natural head posture, which is then detected as actual head position.
  • This detected actual head position is then used to determine the parameters for adjusting the glasses.
  • the parameters for adjusting the glasses can be determined suitably for the natural head position.
  • At least one coarse 3D model of the head can be created from the depth information, from which the head posture and head position of the user can be seen.
  • the user can be given a feedback regarding the positioning of the head, for example, the user can be instructed to place the head for a measurement differently, for example, if relevant parts of the head can not be detected.
  • it can also be ascertained if the head posture differs from a previously established habitual head posture of the user or if there is not a zero-sighting direction or main direction of vision desired for a measurement.
  • the head of the user can be positioned as optimally as possible in the measuring range of the device.
  • Determining the parameters for adjusting the glasses can then be based on the recorded image of the head.
  • the person can when taking the image a spectacle frame without lenses or with support discs (simple plastic discs without optical
  • the method can then measure the three-dimensional topography of the face and determine anatomical parameters (e.g., the distance of the pupils) as the parameters that can then be used for spectacle fitting.
  • anatomical parameters e.g., the distance of the pupils
  • such parameters can be determined independently of the head position.
  • Depth information for determining the parameters for eyeglass adjustment are used, for example, taken from the image dimensions of the head of the person.
  • the method may include scaling the recorded image on the basis of the depth information and / or scaling based on the image parameters for spectacle fitting based on the depth information.
  • the method may further include rectifying the captured image based on the
  • a rectification is to be understood as an alignment and / or equalization of the recorded image, so that e.g. Even with an oblique head position, which leads to distortions in the image, correct parameters from the rectified image
  • Eyeglass adjustment can be taken.
  • the acquisition of the depth information and / or the taking of an image may be repeated several times, the method further comprising a combination of the respective generated depth information and / or images, e.g. through a temporal averaging.
  • a suitable method for this purpose is, for example, in "Rapid Avatar Capture and Simulation using
  • the accuracy of the determination of the parameters for adjusting the glasses can be increased.
  • multiple depth information and / or multiple images may be combined differently than with averaging to increase accuracy.
  • this combining may be a temporal adaptation of a function (or functions), eg, adaptation of a polynomial function or other suitable function, or a combined spatial and temporal adaptation of the function, eg polynomial and spline functions
  • adaptation takes place via a plurality of depth information or images taken in chronological succession, or spatially via the images or the depth information (for example: across different parts of the detected face) during a combined spatial and temporal adaptation one or more corresponding functions adapted to the depth information and / or images, for example by adaptation of coefficients of the function (eg polynomial coefficients in a polynomial function) that the function as close as possible to the depth information and / or images.
  • coefficients of the function eg polynomial coefficients in a polynomial function
  • Processing steps may then be based on the function or functions.
  • Combining the images or depth information e.g. By averaging or fitting a function, it can be done using a rigid registration method (i.e., a method that uses only rotations and translations) to accommodate different depth information and / or captured images.
  • a rigid registration method i.e., a method that uses only rotations and translations
  • parts relating to the same part of the head e.g. Measurement data
  • non-rigid methods i.e., methods which also use other operations such as distortions
  • such non-rigid methods are used only for areas of the face which either are not relevant for the later determination of parameters or can move quickly.
  • the two types of registration methods mentioned above for matching the different measurements can be performed independently or in combination.
  • the method may further include discarding images and / or depth information that meets predetermined criteria. These criteria may include, for example, the presence of a head posture unsuitable for measurement, e.g. such that parts of interest such as eyes are invisible or include a closed eyelid. As a result, less suitable images and / or depth information (e.g., images with an eyelid closed) may be discarded to determine the parameters for eyewear adaptation.
  • the method of the first aspect may further comprise, the method of the second aspect further comprising: presenting a model of the head based on the depth information, and virtually fitting glasses to the model, wherein the parameters for adjusting the glasses are determined based on the virtual fitting.
  • the person wearing the depth information and possibly the images does not wear glasses, so that a model of the head without glasses can be made easier.
  • Different eyewear frames can then be adapted to this model virtually, ie also as models eg on a display. From the virtual fitting then the parameters for adjusting glasses can be determined, for example, a type of glasses then to be used real, dimensions of the then actually used glasses and / or Zentrierparameter this.
  • recorded images also displayed as a 3D model of the head on a display.
  • a 3D model of the head at appropriate
  • Repeat rate of the depth information detection device are displayed in real time, which corresponds to a virtual mirror.
  • This 3D model can then be combined with various virtual spectacle frames to give the person a first impression of the optical effect of different spectacle frames.
  • One of the spectacle frames can then be selected.
  • the type of this spectacle frame can also be used as a parameter for
  • Eyeglass adjustment can be viewed. It is also possible in such an adjustment of a virtual spectacle frame parameters for spectacle fitting, which are then used to adjust a real glasses to determine, and describe the dimensions of the spectacle frame. This can be done, for example, by varying such parameters until optimal matching is achieved. Examples of such parameters are e.g. Disc width, disc height and bridge width of the spectacle frame.
  • the eyeglass bridge can be adapted to the shape of the nasal bridge in the 3D model.
  • Centering parameters can then also be determined on such a selected virtual spectacle frame on the 3D model of the head.
  • centering parameters with real
  • Spectacle frames which are worn in the measurements of the person
  • virtual spectacle frames which are adapted to a 3D model of the head
  • Computer program may be stored on a computer readable medium.
  • an apparatus for determining parameters for adjusting glasses comprising depth information detection means for detecting depth information relating to a head of a user, wherein the
  • Depth information comprises at least one distance of the head to the device, and an evaluation device which is adapted to determine parameters for adjusting the glasses based on the detected depth information.
  • positions of the person to be examined which deviate from a desired position or preferred position, can be compensated for in determining the parameters for adjusting the glasses.
  • the depth information acquisition device may comprise a light field camera.
  • a light field camera is also referred to as a plenoptic camera.
  • Light field cameras capture, in a sense similar to holographic recording systems, the so-called light field of a scene. Not only are intensity information recorded as in a conventional camera, but additional information about the direction from which a respective light beam comes.
  • the recorded signal (which is recorded, for example, with a conventional image sensor) thereby contains in a light field camera both image information and depth information obtained from the intensity information and the information about the direction of the light rays. This allows a captured object, such as the person's head, to be at least to some degree (depending on the implementation of the
  • Light field camera are reconstructed three-dimensionally, and distances between the head and the light field camera are detected. With such a light field camera so can
  • the functionality of the depth information detection device and the
  • the depth information acquisition device may be configured to detect a depth profile of a region of interest of the head.
  • a depth profile is an indication of a distance of points of the region of interest from a reference surface (eg defined by the depth information acquisition device) as a function of a position in a plane parallel to the reference surface, for example a position in one
  • the evaluation device can display a model of the region of interest, as it were, as a virtual mirror, which is known e.g. enable a virtual adaptation of glasses. It should be noted that the user at the time of generating the depth information and image information either a
  • Can wear glasses frame or can wear no glasses frame.
  • the depth information detection device may operate based on infrared radiation. As a result, a user is not disturbed by the measurement.
  • a camera-based infrared depth sensor in which an infrared pattern of a
  • Projection system is generated and the depth of the objects in the scene are averaged by recording the so-lit scenery with an infrared camera, so for example, a depth profile of the head can be created.
  • depth sensors are commercially available. They allow comparatively high refresh rates, for example of 30 Hz or 60 Hz.
  • infrared patterns patterns in the visible light range can also be used.
  • strip projection Such methods are also known by the term strip projection.
  • various image patterns and / or image sequences are projected onto a surface (in this case upside down) and an image of the object taken with a camera (which may be or differ from the above-mentioned 2D camera).
  • the camera stands at a defined angle to the projection system.
  • the three-dimensional surface of the target, here the head, and the triangulation base make the patterns imaged on the camera's sensor changed or deformed, from which the depth information and topography of the illuminated surface are determined can be.
  • the distance of the head from the depth information acquisition device can thus also be determined.
  • the use of infrared light as described above is preferred because in this case a normal
  • Image capture is not disturbed and, for example, the user is not affected by the
  • the depth information acquisition device may comprise a transit time sensor, via which the distance is determined over a transit time of a signal, wherein the transit time can be measured directly or in the form of a phase shift.
  • Depth information detection device sent to the head and detects a signal reflected from the head. From the duration of the signal to and from the head and the speed of the signal, the distance can then be determined, this being
  • a scanning method can also be done at a variety of points.
  • a phase difference between a modulation of the reflected beam and a corresponding modulation of the reference beam derived from the transmitted beam is frequently determined-in particular if light pulses are used as a signal.
  • Runtime cameras used with lateral resolution depth sensors examples include:
  • PMD Photonic Mixing Device
  • objects such as the head can be scanned at a high refresh rate, for example in the range of 30 to 60 Hz and high resolution, so that depth information with refresh rates comparable to a video rate can be made available. In this case, an entire depth profile of the head can be created.
  • time-of-flight sensors it is thus possible to determine depth information with a high repetition rate and / or high accuracy. Even a robust detection of depth information, largely independent of room lighting, etc. can be realized because, for example, no corresponding points have to be found in stereo image pairs.
  • Another type of depth information detection device which at least one type of depth information detection device, which at least one of
  • Embodiments can be used, uses a distance measurement by means of optical triangulation, such as laser triangulation.
  • optical triangulation such as laser triangulation.
  • Triangulation is based on the fact that a light spot on the object to be measured (in the present case the head or a part thereof) with a laser, a light emitting diode (LED) or another light source is generated. This can be done in the visible range or in the infrared range.
  • the light spot is imaged via a camera, for example a CCD camera (charge coupled device), a CMOS camera or a line scan camera.
  • the light source and the camera are at a defined angle to each other Due to the trigonometric relationships can be determined from the displacement of the imaged light spot on the sensor, that is, the location of the light spot on the sensor, the distance to the object to be measured.
  • the light spot in the image shifts with increasing distance to the object to be measured in a direction from the light source to the camera, because due to the angle between the light source and camera, the light also covers a greater distance in the direction of the camera with increasing distance.
  • a measurement can also be done line by line.
  • a laser line is projected onto the head. From a camera image of the laser line can then
  • Depth information along the laser line are transmitted in particular on the basis of shifts perpendicular to the direction of the laser line.
  • the topography of the head along the line can be determined.
  • the intensity of the laser is to be chosen sufficiently low.
  • infrared light is preferred.
  • a camera for such an optical distance measurement by means of triangulation can be one of a possibly additionally provided for image recording 2D camera, separate camera. It can also be used a single camera device, for example, at
  • switchable filter periodically between the measurement of depth information and the recording of an image can be switched. In other embodiments, none at all
  • Image acquisition is performed with a 2D camera, but it is merely an example, with a scanning system as described above, in which a laser line is moved over the head, a total depth profile and thus determines the topography of the head.
  • the depth information can also by a
  • Stereocamera method be determined by triangulation.
  • a pair of cameras is not only used to determine a 3D model, but it is also explicitly a distance from the head to the
  • Stereo cameras determined In this case, two are used at a predetermined angle to each other or more at several predetermined angles to each other arranged cameras.
  • the depth determination of an object point is made by determining the parallax of the respective object point in the two camera images, that is to say a displacement of object points between the camera images.
  • the error of such a depth measurement is proportional to the square of the distance between the cameras and the head and inversely proportional to the stereo base, that is, the distance of both cameras.
  • the stereo base must be sufficiently large enough for typical distances in the operation of the
  • Eyewear adjustment can be determined with a desired or required for the eyeglass adjustment accuracy.
  • Identify correspondence with a method used for this purpose Objects that usually do well include the eyes, eyebrows, nose, and other prominent facial features.
  • a structure may still be projected upside down, such as binary patterns, lines, dots, etc., around the
  • Identification corresponding area to facilitate When implementing the depth information acquisition device, for example, as a runtime sensor or as a light field camera, however, a more compact structure than, for example, with a
  • Depth information detection devices in cases where it depends on a compact design, compared to a stereo camera system preferred.
  • Depth information detection devices are used with other depth sensors, for example, as already mentioned, ultrasonic depth sensors, depth sensors, which perform a depth measurement by means of optical coherence tomography (OCT), confocal sensors or chromatic confocal sensors.
  • OCT optical coherence tomography
  • any conventional depth sensor can be used, which can capture a depth information with respect to the head, in particular with respect to the eye area and the glasses, sufficiently accurate and thereby does not pose a risk to the eyes of the user (for example, due to excessive radiation).
  • “Sufficiently accurate” again means that finally the parameters for adjusting the glasses can be determined with an accuracy desired or required for adjusting the glasses.
  • the apparatus further includes, in addition to the depth information acquisition device, a 2D camera, i. a (conventional) camera for taking two-dimensional images by means of an image sensor, for taking an image of at least a part of the head. This provides additional information for determining the parameters
  • Eyeglass adjustment available, for example, taken from the picture dimensions of the head of the person.
  • the evaluation device can be set up for scaling the images on the basis of the depth information and / or for scaling based on the images of certain parameters for adjusting glasses based on the depth information as already explained above.
  • the evaluation device can also rectify the images based on the
  • the device is set up such that the depth information acquisition device and the 2D camera detect the head via a common optical axis.
  • the optical axis corresponds to an axis on which the depth information is detected, that is to say a "viewing direction" of the axis
  • the optical axis corresponds to the optical axis of this imaging optic, usually a straight connecting line of all centers of curvature of refractive or reflecting surfaces of the imaging optics. Light rays on the optical axis pass through the imaging optics without deflection.
  • the optical axis corresponds to the optical axis of the lens of the 2D camera as described above for imaging optics.
  • a beam splitter may be used to combine and separate the optical axes of the depth information acquisition device and the 2D camera.
  • the beam splitter may be a wavelength-selective beam splitter.
  • the 2D camera can record visible light, while the depth information detection device operates on the basis of infrared radiation.
  • the beam splitter is not wavelength selective, and the 2D camera and depth information acquisition device at least partially share an equal portion of the spectrum.
  • Device can be achieved as in a stereo camera or the like, since no
  • depth information and image information of the camera are taken from the same direction, whereby a perspective correction of the depth information relative to the image data can be omitted.
  • the evaluation device can be set up based on the depth information
  • Head position of the head to determine, wherein determining the parameters for
  • the apparatus may be arranged to detect the depth information by the
  • Depth information detection device and / or the recording of the images with the 2D camera to repeat several times wherein the evaluation device then for combining a plurality of acquired depth information and / or a plurality of recorded images, for example in the form of an averaging as described above, is set up.
  • the evaluation device can also be set up to discard images and / or depth information that fulfill predetermined criteria.
  • the evaluation device can be further set up, a model of the head based on the depth information, e.g. to display on a display, and to allow a virtual fit glasses to the model, wherein the evaluation device is adapted to determine the parameters for adjusting the glasses based on the virtual fitting.
  • FIG. 1 is a schematic representation of a device according to an embodiment
  • Fig. 2 is a schematic representation of a device according to another
  • Fig. 3 is a schematic representation of a device according to another
  • Fig. 5 is an illustration of a section through a depth profile, as in some
  • Embodiments can be generated,
  • FIGS. 6A-6F are explanatory views of spectacle fitting parameters
  • FIG. 7 is a flowchart for illustrating a method according to FIG.
  • FIG. 8 is a flow chart illustrating a method according to another embodiment.
  • Figures 9 and 10 are illustrations for explaining a rectification, as performed in some embodiments. In the following, various embodiments of the present invention will be explained in detail.
  • a device for determining parameters for fitting a pair of spectacles i.e., parameters that can be used to adapt a pair of spectacles to a person's head
  • the device of FIG. 1 comprises a depth information acquisition device 12 for determining a depth information relating to a head 10 of a user, in particular for determining a depth information relating to an eye area, that is, an area around the user's eyes, thereof.
  • the user in Fig. 1 wears a pair of glasses 1 1, with respect to which also a depth information can be determined.
  • a depth information in the sense of the present application comprises at least one piece of information regarding a distance of the user, in particular the head 10 of the user and / or the spectacles 1 1 worn by the user, to the user
  • Depth information detection device 12 For example, as a distance, the length of the dotted line 14 of FIG. 1 can be determined. However, distances can also be measured to other and / or multiple locations of the head 10. In a preferred embodiment, a depth map is created as it were, for example, by determining the above-described distance for a plurality of points of the head 10, in particular the eye area, and / or a plurality of points of the spectacles 1 1. The depth information provided by the depth information acquisition device 12 thus provides information about such a distance. This information can be used below to determine regardless of the exact position of the head 10 parameters for adjusting the glasses 1 1 to the head 10 of the user, for example, for centering eyeglass lenses. Examples of suitable depth information detection devices as well as parameters to be determined will be explained later in more detail.
  • the apparatus of Fig. 1 further comprises an evaluation device 13, which the
  • Depth information from the depth information detection device 12 receives and based on the depth information determines parameters for adjusting the glasses 1 1.
  • Evaluation device 13 can be programmed, for example, as appropriately programmed
  • the evaluation device 13 can in a conventional conventional manner output means such as a display, speakers, interfaces for outputting signals and the like, for outputting or transmitting the particular parameters for spectacle fitting to other means. Details of the determination of the glasses adjustment parameters will also be explained later. It is to be noted that the depth information detecting device 12 and the
  • Evaluation device 13 of the device according to the invention can be arranged locally close together, for example in a common housing or in separate housings, which are in a fixed spatial arrangement to each other. Likewise, however, the evaluation device 13 also spatially separated from the
  • Depth information detection device 12 may be arranged, and that of the
  • Depth information detection device 12 determined depth information can be transmitted in a conventional manner wireless, wired or via optical lines such as glass fibers to the evaluation device 13. Such a transmission is also possible, for example, via networks such as the Internet, so that essentially arbitrary distances between the depth information acquisition device 12 and the evaluation device 13 are possible.
  • the apparatus of Fig. 1 is extended by a camera 20 which receives a two-dimensional image, such as a black-and-white image or a color image, of the head 10 or a portion thereof, such as an eye area.
  • the camera 20 may be conventionally provided with a lens and an image sensor
  • the image recorded in this way is likewise supplied to the evaluation device 13.
  • Evaluation device 13 additionally determines the parameters for adjusting the glasses on the basis of the recorded image in this case.
  • the evaluation device 13 can also control the camera 20 and the depth information acquisition device 12 in such a way that the image is recorded simultaneously with the depth information.
  • the image taken by the camera 20 can then be scaled on the basis of the depth information acquired by the depth information acquisition device 12. For example, such scaling may be done with a higher scaling factor if the depth information indicates that the head 10 is farther from the depth information acquisition device 12, and scaled with a smaller scale factor as the head gets closer to the depth
  • the scaling factor may indicate an increase or a decrease.
  • the image can be scaled such that the image
  • “Sufficiently accurate” means that ultimately the parameters for adjusting the glasses can be determined with an accuracy desired or required for adjusting the spectacle .
  • the parameters can be determined however, corresponding dimensions may also be taken from the captured image, and the dimensions taken may then be scaled based on the depth information
  • the camera 20 is shown separate from the depth information acquisition device 12. However, in some embodiments, the camera 20 may also be part of it serve the depth information detection device 12, for example in the case of a stripe projection or a laser triangulation, as will be explained in more detail later.
  • Depth information detection device 12 as shown at different angles and with different optical axes.
  • a structure is provided in which depth information detector 12 and camera 20 view the head 10 coaxially.
  • a corresponding embodiment is shown in FIG. 3.
  • Fig. 3 are as in the embodiment of FIG. 3 a
  • Depth information detection device 12 and a camera 20 is provided.
  • a beam splitter 30 is additionally provided, which the optical axis of the camera 20 with the optical axis 12 of
  • Depth information detection device 12 combines so that the head 10 on a single considered optical axis, or is measured. This also makes a compact design possible. In addition, parallax errors and the like between the depth information and the image taken by the camera 20 are avoided or reduced.
  • Embodiment of Fig. 2 such parallax errors and the like, however, can be eliminated by calculation by the evaluation device 13.
  • the beam splitter 30 may be a wavelength-selective beam splitter. In such
  • the camera 20 may record visible light while the depth information detector 12 operates based on infrared radiation.
  • the beam splitter 30 is not wavelength selective, and the camera 20 and depth information detector 12 at least partially share an equal portion of the spectrum.
  • Depth information detection device 12 provided depth information and of the
  • Camera 20 provided one or more images from an evaluation as the evaluated for the evaluation device 13 of FIG. 1 are evaluated to parameters for
  • runtime or phase position measurements can be used to obtain the
  • Depth information can be used. In such methods, as explained above, substantially a signal from the depth information detecting means is sent to the head and a signal reflected from the head is detected.
  • time-of-flight sensors can scan objects such as the head 10 with a high refresh rate of, for example, in the range from 30 to 60 Hz and high resolution, so that the depth information can be made available with refresh rates comparable to a video rate.
  • a high refresh rate of, for example, in the range from 30 to 60 Hz and high resolution
  • the depth information can be made available with refresh rates comparable to a video rate.
  • an entire depth profile of the head can be created.
  • FIG. 4 schematically shows a depth information acquisition device, which serves as a schematic illustration for various types of use that can be used Depth information detection devices can serve.
  • a runtime sensor 40 denotes a signal source, for example, a modulated light source, and 41 denotes a corresponding sensor for detecting the received light, for example, a runtime camera as described above.
  • Depth information detection devices that can be used in embodiments, a distance measurement by means of optical triangulation, for example
  • Laser triangulation in the case of FIG. 4, in such a triangulation device, for example, 40 may denote a light source and 41 a camera which are at a defined angle to one another.
  • Another possibility for implementing the depth information acquisition device 12 is the use of a light field camera.
  • a depth information device in which an infrared pattern is generated by a projection system and the depth of the objects in the scene is determined by recording the scene thus illuminated with an infrared camera.
  • a stripe projection with visible light can also be used.
  • the element 40 would then be the projection system, and the element 41 the camera, which may be identical to or different from the camera 20.
  • the depth information may also be determined by a stereo camera method using triangulation. In this case, two or more cameras are arranged at one or more predetermined angles.
  • 40 is a first camera and 41 is a second camera.
  • corresponding high-resolution depth sensors a profile of the head 10 and thus the three-dimensional surface of the head 10 based on the
  • FIG. 5 shows a schematic representation of a section 50 through such a 3D model, in which a section 51 is visible through the glasses.
  • the section 50 in the example of FIG. 5 is indicated by a
  • the user's eye 52 does not pass through the center of the subject's face but through the center of the eye.
  • the profile of the head is indicated as shown in Figures 1 -4, wherein this profile extends through the central axis of the head and thus differs from the profile 50.
  • Depth information detection device and the head 10 includes, a true to scale such three-dimensional profile of the head 10 can be created with appropriate
  • FIGS. 6A to 6F respectively show views of spectacles, possibly together with a partial view of a head, in order to explain various parameters.
  • FIG. 6A shows the monocular pupil distance when looking at infinity.
  • An arrow 60A shows the monocular pupillary distance for a left eye, measured as the distance between the pupil and a central axis 61 of the head.
  • An arrow 60B shows the monocular
  • Pupil distance for the right eye The values for the left and right eyes are different in most cases.
  • Fig. 6B illustrates the view height measured again when looking at infinity, satisfying the eye pivot requirement.
  • the eye pivot requirement means that the optical axis of the lens should pass through the eye pivot.
  • the optical axis runs through the optical center of the spectacle lens and is generally perpendicular to the spectacle lens. This can minimize undesirable prismatic effects when viewed through eye movements through different parts of a spectacle lens.
  • the see-through height indicates the distance between the pupil and a lower edge of the spectacle lens.
  • An arrow 62A shows the viewing height for the right eye, and an arrow 62B shows the viewing height for the left eye.
  • 63 denotes the corneal vertex distance, which is usually measured from the back of the spectacle lens of the spectacles to a peak plane of the cornea.
  • an angle 64 denotes the front inclination of the socket, essentially one Inclination of the glasses to the vertical. As well as the viewing height shown in FIG. 6B, this also depends on the person's head posture.
  • an angle 65 designates the lens angle, an angle at which the lens is compared with a "plane” lens, and finally Fig. 6F
  • 67 is the disk width, with 68 the disk height.
  • Disc width and disc height together with pupil distance and viewing height are important information for determining a required glass diameter of a spectacle lens.
  • 66 also the bridge width of the spectacle frame is designated.
  • FIGS. 6A to 6F show some spectacle fitting parameters which can be determined by means of the illustrated devices. Other parameters for adjusting the glasses can also be determined. For example, there are optionally further parameters which can be determined for the centering of spectacle lenses for near vision (for example for reading glasses or working glasses) and for the centering of progressive lenses. This includes, for example, the "near-pupil distance", which is not measured infinitely in the direction of view as described above, but when looking at an object located near the head.
  • This geometrical information can be important for the selection of suitable spectacle lenses, since they have an influence on the glass thickness, for example, in spectacles having a positive optical effect.
  • the Device determines the position of the pupils in the plane of the spectacle lens. It is also possible to determine the viewing height in natural head and body posture, the person to be examined usually looks in 8 to 10 m on the ground, which also as Main direction is called.
  • the head posture can, as will be explained in more detail below, also be determined by means of the device according to the invention, and the person to be examined may, if necessary, be instructed to change the head posture.
  • FIG. 7 shows a flowchart which gives an overview of a method according to an exemplary embodiment for determining parameters for adjusting glasses.
  • FIG. 8 shows a detailed flow chart in which various possible details of such a method are illustrated. While the methods are presented as a series of steps, the illustrated order should not be construed as limiting.
  • a depth information and an image may be recorded simultaneously with a depth information acquisition device such as the depth information acquisition device 12 of FIG. 2 and a camera such as the camera 20 of FIG. 2 or also with a light field camera as explained above.
  • depth information is detected which includes a distance of a head from a device used to acquire the depth information. This can be done with depth information detectors 12 as discussed above.
  • step 71 an image (also referred to as an overview image) of at least one region of interest, for example an eye area, of a head is additionally detected.
  • Step 71 is optional, and in some embodiments only the depth information is captured in step 70.
  • step 72 parameters which are used for spectacle fitting, in particular spectacle lens centering, are then determined. For example, one or more of the parameters discussed with reference to FIGS. 6A-6F may be determined.
  • a true-to-scale 3D model of the head with glasses is created from the acquired depth information, and the parameters are then read from this 3D model.
  • the Overview image to be registered to the 3D model, for example, used to give the 3D model texture. This facilitates the detection of individual features such as
  • the eyes for example, the eyes.
  • Approaches for detecting such features as the eyes, the eyeglass frame, and the like, which are needed to determine the parameters, are known per se, for example, from conventional photography where various face recognition algorithms are used.
  • the distance of the head to the depth information detection device can be used to ensure a correct size of the 3D model even with a positioning of the head, which does not correspond to a predetermined target position.
  • the depth information may include only a single distance between the head and the device at a single point, and in addition an overview image is taken.
  • Such depth information can be provided with a relatively simple depth sensor which, for example, need not be designed to be scanned. In this case, the distance thus obtained is used to scale the image with a scaling factor which depends on the distance and which is in the
  • the recorded image can be scaled to a correct size, and dimensions such as the dimensions shown in FIGS. 6A to 6F can be taken from the thus scaled overview image.
  • dimensions such as the dimensions shown in FIGS. 6A to 6F can be taken from the thus scaled overview image.
  • the determination of some parameters is necessary. For example, from a frontal image, parameters of FIGS. 6A, 6B, and 6F may be determined, while for the parameters of FIGS. 6C and 6D, an image must be taken from the page.
  • a number of image recordings may therefore be carried out in such a case.
  • the depth information thus compensates for the size of the head of the person to be examined or relevant parts thereof changing as a function of a distance of the head from the camera used. For example, the head appears larger when it is closer to the camera and smaller when it is away from the camera.
  • FIG. 8 various details and extensions of the method of FIG. 7 will be discussed. While FIG. 8 and the following description explain various possible extensions and details in combination, it should be noted that these can also be implemented independently of each other, that is not so
  • step 80 depth information is repeatedly detected, and optionally image information is repeatedly recorded in step 81.
  • steps 70 and 71 of FIG. 7 are repeatedly performed.
  • some depth sensors offer high levels
  • These measurements at 80 and 81 can be analyzed with appropriately equipped computers in real time, at least in some aspects.
  • a model of the head can then be created and displayed on a display, which makes it possible, for example, to adapt a virtual spectacle frame as described. Also, the
  • Depth information as described can be used to align the head.
  • step 82 then from the measurements made at 80 and 81, appropriate
  • Measurements are selected. Thus unfavorable images or depth information for the later determination of the parameters for spectacle fitting can be excluded.
  • the position of the pupil which is required for example for the parameters shown in FIGS. 6A and 6B, can only be inaccurate with the eyelid closed
  • facial features also referred to in the English literature as facial feature detection or Landmark Detection
  • facial feature detection or Landmark Detection can be determined in which images or in which depth information one or both eyelids are closed, and corresponding data can for the
  • the acquisition of the depth information and the taking of the images at 80 and 81 can also be synchronized, so that, for example, one image each of a set of
  • Depth information is assigned. For example, if it is found in the image that the
  • step 83 a combination of multiple measurements and / or registration of data with each other may be made. Under registration will be included generally understood a process in which several records are brought to line or aligned. In the case of so-called rigid registration methods, the topography of the individual measurements is not changed, ie distances and angles are retained, but the individual measurements are brought into coincidence only by rotation and translation.
  • a plurality of successive measurements can be combined after registration, which can bring about an improvement in accuracy, in particular with regard to the depth information.
  • the parameters for the registration can be determined by conventional optimization methods, for example the ICP (Iterative Closest Point) algorithm for data without texture, homographic estimation, for example by means of a DLT algorithm for image data (direct linear transformation, for example for image data taken with a camera).
  • ICP Intelligent Closest Point
  • DLT direct linear transformation, for example for image data taken with a camera
  • Such rigid registration methods for combination can be problematic with variable facial areas (for example, moving eyelids) because unfavorable registration can occur here, in particular for display purposes on a display or the like. In preferred embodiments, therefore, such image areas or regions of depth information, where typically fast
  • step 84 a head posture is then determined in the measurements of steps 80 and 81. This head pose can then be used to rectify captured images, or otherwise, for example, in determining the parameters for
  • Eyeglass adjustment can be used for correction.
  • the head of the person being photographed is registered with a standard head (that is, a 3D model of a head of a standard set shape) and the
  • Posture of this standard head is determined with respect to a reference coordinate system of the device.
  • This reference coordinate system is also determined as a world coordinate system.
  • the rigid transformation is determined, which gives the standard head in its own frame of reference in a standard head in the
  • World coordinate system transformed so that a best possible match with the measurement data of the depth information detection device is achieved.
  • This transformation can be described, for example, by means of the following six parameters: translation in the x, y and z directions, and rotation about the x, y and z axes (for example according to the Euler formula), where x, y and z describe axes of a world coordinate system.
  • a head 10 is shown in Fig. 9, which is rotated by an angle 90 about the z-axis (perpendicular to the image plane). With 91, the center axis of a straight-headed head is designated, with 92 the central axis of the head 10.
  • the center axis of a straight-headed head is designated, with 92 the central axis of the head 10.
  • Registration of angles 90 is determined.
  • translations or rotations of the head 10 about the x and / or y axis can also be determined.
  • step 85 The head pose thus described with these six parameters is then used in step 85 described below to correct for any skew of the line of sight to the device.
  • a visual point that is to say the point of intersection of the respective visual axis of the person with a plane of the spectacle lens, can be corrected.
  • One way to apply a correction in advance is to rectify the
  • Camera image (eg, the images taken in step 81) in step 84 to convert the camera images to an image plane corresponding to an orientation of the face.
  • FIG. 10 the head 10 in the position of Fig. 9 is shown.
  • Indicated at 100 is an optical center of a camera used (for example, the camera 20 of the above-described embodiments).
  • 101 denotes an image plane of the central projection from the center 100, for example an image plane, according to which the image is taken by the camera 20. Due to the inclination of the head 10, distortions arise, for example, between the left and right half of the face.
  • the points of the image plane 101 are converted into an image plane 102 substantially in accordance with the light rays drawn, resulting in equalization, and the thus corrected image is adjusted to the orientation of the face because the image plane 102 is closer to the orientation than the image plane 101 , From such equalized (and optionally scaled as discussed above) parameters for spectacle fitting can then be taken.
  • step 85 an analysis of the depth information and / or images, which have been preprocessed in steps 82 to 84, is carried out in order to determine the parameters for adjusting the glasses.
  • This can, as already explained, essentially with algorithms for the detection of facial features or other features (for example the spectacle frame), and corresponding parameters for spectacle fitting can then be determined by corresponding distance or angle measurements in the data, for example in a 3D model created on the basis of the depth information and / or in image data scaled and / or rectified on the basis of the depth information. be performed.
  • the parameters for adjusting the glasses, in particular the centering parameters can be determined in a simple manner.
  • steps 83 and 84 may also be performed independently of each other, and may also be performed when only one measurement of depth information is made or only one measurement of depth information and one image taken. In other words, the multiple image acquisition and averaging can also be omitted.

Abstract

Methods and devices are disclosed for determining parameters for spectacle fitting, particularly centering parameters. A depth information detection device (12) detects an item of depth information relating to a user's head (10), said depth information including a distance (14) from the head (10) to the device (12), (13). On the basis of this depth information and, if applicable, additional information such as images, an evaluation device (13) can then determine the desired parameters for fitting the spectacles, such as centering parameters.

Description

Beschreibung Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung  Description Method and device for determining parameters for adjusting glasses
Die vorliegende Anmeldung betrifft Verfahren und Vorrichtungen zum Bestimmen von The present application relates to methods and apparatus for determining
Parametern zur Anpassung einer Brille an einen Kopf einer Person, insbesondere die Parameters for fitting a pair of spectacles to a person's head, in particular the
Bestimmung von Zentrierparametern. Derartige Zentrierparameter werden benutzt, um Determination of centering parameters. Such centering parameters are used to
Brillengläser korrekt in einer Brillenfassung anzuordnen, das heißt zu zentrieren, so dass die Brillengläser in korrekter Position relativ zu den Augen der Person getragen werden. To properly arrange spectacle lenses in a spectacle frame, that is to center, so that the spectacle lenses are worn in the correct position relative to the eyes of the person.
Eine gattungsgemäße Vorrichtung und ein gattungsgemäßes Verfahren sind beispielsweise aus der EP 1 844 363 B2 bekannt. A generic device and a generic method are known for example from EP 1 844 363 B2.
Bei der in dieser Druckschrift verwendeten Herangehensweise wird ein Paar von In the approach used in this document, a pair of
Bildaufnahmeeinrichtungen verwendet, um Stereobilddaten von einem Kopf einer Person oder Teilen des Kopfes zu erzeugen. Aus den Stereobilddaten wird dann ein dreidimensionales Modell des Kopfes berechnet. Auf Basis des dreidimensionalen Modells können gewünschte optische Parameter bestimmt werden. Ein entsprechendes Verfahren wird ebenso beschrieben. Statt des Paares von Bildaufnahmeeinrichtungen kann in einer in dieser Druckschrift als Alternative beschriebenen Variante auch eine Musterprojektion verwendet werden. Image capture devices are used to generate stereo image data from a person's head or parts of the head. From the stereo image data, a three-dimensional model of the head is then calculated. Based on the three-dimensional model, desired optical parameters can be determined. A corresponding method is also described. Instead of the pair of image recording devices, a pattern projection can also be used in a variant described in this document as an alternative.
Bei der Vorrichtung der EP 1 844 363 B2 wird die zu untersuchende Person vor der Vorrichtung positioniert, und die Bildaufnahmeeinrichtungen nehmen dann entsprechende Bilder des Kopfes oder Teilen hiervon auf. Dabei kann es zu Ungenauigkeiten hinsichtlich der Positionierung der Person kommen, d.h. die Person kann abweichend von einer gewünschten Sollposition, insbesondere einem gewünschten Sollabstand, positioniert sein. Dies kann es erschweren, genaue Abmessungen aus den mit den Bildaufnahmeeinrichtungen aufgenommen Bildern zu bestimmen, welche für die Bestimmung der Paramater benötigt werden. Zudem erfordert es die Herangehensweise der EP 1 844 363 B2, in Bildpaaren, welche von dem Paar von In the device of EP 1 844 363 B2, the person to be examined is positioned in front of the device and the image recording devices then take corresponding images of the head or parts thereof. This can lead to inaccuracies in the positioning of the person, i. the person may be positioned differently from a desired nominal position, in particular a desired nominal distance. This can make it difficult to determine accurate dimensions from the images taken with the image pickup devices needed to determine the parameters. In addition, it requires the approach of EP 1 844 363 B2, in image pairs derived from the pair of
Bildaufnahmeeinrichtungen aufgenommen werden, korrespondierende Punkte oder Imaging facilities are recorded, corresponding points or
Bildbereiche zu finden. Je nach Beleuchtungsbedingungen kann es schwierig sein, dies für eine ausreichende Anzahl von Bildpunkten durchzuführen. Aus der US 2015/323310 A1 sind Verfahren und Vorrichtungen bekannt, bei denen unter Verwendung einer Abstandsmessung ein Pupillenabstand und ein Maßstab bestimmt werden. Eine Bestimmung von Parametern zur Brillenanpassung wird in dieser Druckschrift nicht behandelt. To find image areas. Depending on lighting conditions, it may be difficult to do so for a sufficient number of pixels. From US 2015/323310 A1 methods and devices are known in which a pupil distance and a scale are determined using a distance measurement. A determination of spectacle fitting parameters is not dealt with in this document.
Aus der nachveröffentlichten DE 10 2005 001 874 A1 sind ein Verfahren und eine From the post-published DE 10 2005 001 874 A1 are a method and a
entsprechende Vorrichtung zur Bestimmung von Parametern zur Brillenanpassung bekannt, bei welcher mit einer Messeinrichtung Tiefeninformationen hinsichtlich eines Kopfes eines corresponding device for the determination of parameters for adjusting glasses known, in which with a measuring device depth information with respect to a head of a
Benutzers erfasst wird, wobei die Messeinrichtung den Abstand mindestens eines Auges zu einer Bildaufnahmeeinrichtung der Messeinrichtung bestimmt. Ein Parameter der User is detected, wherein the measuring device determines the distance of at least one eye to an image pickup device of the measuring device. A parameter of
Gebrauchsstellung einer Brille oder Brillenfassung wird dann unter Berücksichtigung des ermittelten Abstandes ermittelt.  Use position of a pair of glasses or spectacle frame is then determined taking into account the determined distance.
Aus der US 2010/0220285 A1 ist ein Verfahren zur Bestimmung von Parametern zur US 2010/0220285 A1 discloses a method for determining parameters for
Brillenanpassung, insbesondere eines Pupillenabstandes, bekannt, bei welchem ein Abstand einer verwendeten Vorrichtung zu einem Patienten gemessen wird und der Pupillenabstand auf Basis des Abstandes über eine Skalierung gemessen wird. Eyewear adaptation, in particular a pupillary distance, known, in which a distance of a device used to a patient is measured and the pupillary distance is measured on the basis of the distance over a scale.
Die DE 689 28 825 T2 zeigt ein Einspiegeln einer Beleuchtung auf eine optische Achse einer Kamera. DE 689 28 825 T2 shows a reflection of a lighting on an optical axis of a camera.
Eine Lichtfeldkamera ist in der DE 10 2014 108 353 A1 offenbart. A light field camera is disclosed in DE 10 2014 108 353 A1.
Es ist daher eine Aufgabe der vorliegenden Erfindung, Verfahren und Vorrichtungen It is therefore an object of the present invention to provide methods and apparatus
bereitzustellen, bei welchen eine Genauigkeit der Bestimmung von Parametern zur to provide an accuracy of the determination of parameters for
Brillenanpassung, insbesondere bei ungenauer Positionierung einer zu untersuchenden Person wie oben erwähnt, verbessert wird.  Eyeglass adjustment, especially with inaccurate positioning of a person to be examined as mentioned above, is improved.
Hierzu werden ein Verfahren nach Anspruch 1 oder 14 sowie eine Vorrichtung gemäß Anspruch 9 bereitgestellt. Die Unteransprüche definieren weitere Ausführungsformen. For this purpose, a method according to claim 1 or 14 and a device according to claim 9 are provided. The subclaims define further embodiments.
Gemäß einem ersten und zweiten Aspekt wird ein Verfahren zur Bestimmung von Parametern zur Brillenanpassung bereitgestellt, umfassend: Erfassen einer Tiefeninformation hinsichtlich eines Kopfes eines Benutzers, wobei die Tiefeninformation einen Abstand zwischen dem Kopf des Benutzers und einer zum Erfassen benutzten Vorrichtung umfasst, und Bestimmen von Parametern zur Brillenanpassung auf Basis der Tiefeninformation. Die Tiefeninformation kann auch mehrere Abstände zwischen dem Kopf und der Vorrichtung an verschiedenen Orten des Kopfes, die zur gleichen Zeit oder zu verschiedenen Zeiten erfasst werden, umfassen. According to a first and second aspect, there is provided a method of determining parameters for adjusting glasses, comprising: acquiring depth information regarding a head of a user, the depth information including a distance between the head of the user and a device used for detecting, and determining parameters for spectacle fitting based on the depth information. The depth information can Also, several distances between the head and the device at different locations of the head, which are detected at the same time or at different times include.
Zudem wird bei dem ersten Aspekt ein 2D-Bild (im Folgenden auch einfach als Bild bezeichnet) des Kopfes aufgenommen, wobei das Aufnehmen des 2D-Bildes und das Erfassen der In addition, in the first aspect, a 2D image (hereinafter also simply referred to as an image) of the head is taken, wherein the taking of the 2D image and the detection of the
Tiefeninformation über eine gemeinsame optische Achse erfolgt. Depth information on a common optical axis takes place.
Unter einer Brillenanpassung wird im Rahmen der vorliegenden Anmeldung allgemein eine Anpassung einer Brille an eine bestimmte Person, insbesondere an den Kopf der Person, verstanden. Eine derartige Brillenanpassung kann beispielsweise mit der Auswahl eines bestimmten Brillenfassungstyps, insbesondere eines bestimmten Fabrikats einer Brillenfassung, beginnen. Durch einen Experten wie einen Augenoptiker wird in der Regel überprüft, ob die Brillenfassung zu der Anatomie der Person passt (z.B. hinsichtlich Größe der Fassung, Breite des Nasenstegs, Bügellänge). Im Anschluss wird der Sitz der Fassung überprüft (z.B. In the context of the present application, eyeglass adaptation generally refers to an adaptation of spectacles to a specific person, in particular to the person's head. Such an eyewear adaptation can, for example, begin with the selection of a specific type of eyeglass frame, in particular a specific make of eyeglass frame. An expert, such as an optometrist, will usually check to see if the eyeglass frame matches the person's anatomy (e.g., size of the frame, width of the bridge of the nose, strap length). Subsequently, the seat of the socket is checked (e.g.
Anpassung von Nasenpads, Anpassung der Bügel an die Gesichtsgeometrie). Schließlich werden verschiedene Parameter gemessen, z.B. Pupillenabstand, Hornhautscheitelabstand, Vorneigung der Fassung, Fassungsscheibenwinkel, Durchblickshöhe. Diese Messung der vorstehend genannten verschiedenen Parametern wird als Zentriermessung oder Adaptation of nose pads, adjustment of the brackets to the face geometry). Finally, various parameters are measured, e.g. Pupil distance, corneal vertex distance, pre-tilt of the socket, frame disc angle, viewing height. This measurement of the above-mentioned various parameters is called Zentriermessung or
Brillenglaszentrierung bezeichnet. Einige der gemessenen Parameter haben Einfluss auf die Brillenglasstärke, z.B. der Hornhautscheitelabstand. Andere Parameter bestimmen, wie die Brillengläser in der Fassung positioniert werden müssen bzw. wie sie in die Fassung Eyeglass centering called. Some of the measured parameters affect the lens power, e.g. the corneal vertex distance. Other parameters determine how the lenses are to be positioned in the socket or how they fit into the socket
eingearbeitet werden müssen, z.B. der Abstand zwischen den Pupillenmitten beim„Blick ins Unendliche" (Pupillendistanz) oder die Durchblickshöhe. Wieder andere Parameter können dazu genutzt werden, Brillengläser besonders gut verträglich und individuell für die Person zu berechnen und zu fertigen, z.B. die Vorneigung der Fassung und der Fassungsscheibenwinkel. must be incorporated, e.g. the distance between the pupil centers when "looking into infinity" (pupil distance) or the translucent height.On other parameters can be used to calculate and manufacture eyeglass lenses particularly well tolerated and individual for the person, for example, the forward inclination of the socket and the lens angle.
Unter Parametern zur Brillenanpassung sind im Rahmen der vorliegenden Erfindung allgemein Angaben zu verstehen, welche für die oben beschriebene Brillenanpassung benötigt werden oder verwendbar sind. Hierzu zählen beispielsweise Abmessungen betreffend den Kopf der Person, insbesondere betreffend die Augenpartie, ein Typ der Brillenfassung und In the context of the present invention, parameters for spectacle fitting are generally understood to mean information which is needed or usable for the spectacle fitting described above. These include, for example, dimensions relating to the head of the person, in particular regarding the eye area, a type of spectacle frame and
Abmessungen der Brillenfassung sowie der Sitz der Brillenfassung im Gesicht. Dimensions of the spectacle frame and the seat of the spectacle frame in the face.
Die Parameter zur Brillenanpassung können insbesondere Zentrierparameter sein, welche für die oben erläuterte Brillenglaszentrierung verwendet werden können und welche z.B. The parameters for spectacle fitting may in particular be centering parameters which can be used for the spectacle lens centering explained above and which are e.g.
anatomische Merkmale des Benutzers (z.B. Abstand der Augenpupillen) und eine Lage einer Brille am Kopf beschreiben. Beispiele für derartige Zentrierparameter sind in der DIN ISO 13666, Ausgabe 2013-10, beschrieben, nämlich beispielweise monokularer Pupillenabstand oder Pupillenabstand. Der monokulare Pupillenabstand ist dabei der Abstand zwischen dem Mittelpunkt der Pupille und der Mittellinie der Nase der Person oder der Brücke der describe anatomical features of the user (eg distance of the eye pupils) and a position of glasses on the head. Examples of such centering parameters are in the DIN ISO 13666, 2013-10 edition, namely, for example, monocular pupillary distance or pupil distance. The monocular pupillary distance is the distance between the center of the pupil and the midline of the person's nose or bridge
Brillenfassung für den Fall, dass das Auge in Primärstellung ist. Die Primärstellung entspricht der Stellung der Augen bei gerader Kopf- und Körperhaltung und geradeaus gerichtetem Blick. Die Parameter zur Brillenanpassung können auch Abmessungen einer Brillenfassung umfassen. Die Parameter zur Brillenanpassung können auf Basis einer realen Brillenfassung, die die Person trägt, oder auch auf Basis einer virtuellen Brillenfassung, die einem Modell eines Kopfes, welches auf Basis der Tiefeninformation erstellt wird, angepasst wird, bestimmt werden. In diesem Fall der Verwendung einer virtuellen Brillenfassung können die Parameter zurSpectacle frame in case the eye is in primary position. The primary position corresponds to the position of the eyes with straight head and posture and straight-ahead view. The glasses adjustment parameters may also include dimensions of a spectacle frame. The parameters for adjusting the glasses can be determined on the basis of a real spectacle frame worn by the person or also on the basis of a virtual spectacle frame which is adapted to a model of a head which is created on the basis of the depth information. In this case, the use of a virtual spectacle frame, the parameters for
Brillenanpassung auch einen Typ einer ausgewählten Brillenfassung oder Parameter, die die ausgewählte Brillenfassung, z.B. Maße derselben, beschreiben, umfassen. Eyeglass fitting also includes a type of a selected eyeglass frame or parameters representing the selected eyeglass frame, e.g. Dimensions of the same, describe include.
Durch die Bestimmung eines Abstandes zwischen der Tiefeninformationserfassungseinrichtung und dem Kopf der zu untersuchenden Person können ungenaue Positionierungen der zu untersuchenden Person, d.h. Positionierungen, die von einer gewünschten Sollposition abweichen, bei der Bestimmung der Parameter zur Brillenanpassung ausgeglichen werden. By determining a distance between the depth information detection device and the head of the person to be examined, inaccurate positioning of the person to be examined, i. Positions that deviate from a desired target position, are compensated in the determination of parameters for eyeglass adjustment.
Das Verfahren kann weiter ein Bestimmen einer aktuellen Kopfposition (Ist-Kopfposition), insbesondere auf Basis der Tiefeninformation umfassen, z.B. verglichen mit einer Soll- Kopfposition. Die Kopfposition kann dabei die Position des Kopfes im Raum sowie seine Ausrichtung (z.B. Neigung, Blickrichtung) umfassen. Die Kopfposition kann dabei beispielsweise eine seitliche Kopfdrehung (d.h. um die Körperachse der Person), eine Kopfposition in axialer Richtung (relativ zur Messvorrichtung) eine seitliche Kopfneigung (d.h. in Richtung einer Schulter) oder eine Kopfneigung entlang der Körperachse (d.h. nach vorne oder nach hinten) umfassen, wobei die Kopfposition relativ zu der erfindungsgemäßen Vorrichtung, z.B zu der Tiefeninformationserfassungseinrichtung, bestimmt werden kann. Kopfpositionen relativ zu der erfindungsgemäßen Vorrichtung sind beispielsweise für die richtige Anordnung der Person vor der erfindungsgemäßen Vorrichtung relevant (z.B. innerhalb des Messvolumens). Die The method may further comprise determining a current head position (actual head position), in particular based on the depth information, e.g. compared with a desired head position. The head position may include the position of the head in space as well as its orientation (e.g., tilt, line of vision). The head position may, for example, a lateral head rotation (ie about the body axis of the person), a head position in the axial direction (relative to the measuring device) a lateral head inclination (ie in the direction of a shoulder) or a head inclination along the body axis (ie forward or backward ), wherein the head position relative to the device according to the invention, for example to the depth information detection device, can be determined. Head positions relative to the device according to the invention are relevant, for example, to the correct placement of the person in front of the device according to the invention (for example within the measuring volume). The
Kopfneigung (entlang der Körperachse) hat einen starken Einfluss auf die Messung der Head tilt (along the body axis) has a strong influence on the measurement of the
Durchblickshöhe. Eine Berücksichtigung ist daher für die Brillenglaszentrierung relevant und kann ggf. zur nachträglichen Korrektur der Durchblickshöhe verwendet werden. Das Bestimmen der Parameter zur Brillenanpassung erfolgt auf Basis der bestimmten Ist-Kopfposition. Auf diese Weise können z.B. Abweichungen von der Soll-Kopfposition und/oder Kopfposition (z.B. in axialer Richtung) relativ zu einer verwendeten Vorrichtung bei der Bestimmung der Parameter zur Brillenanpassung berücksichtigt werden. Die Ist-Kopfposition kann dabei wie oben bereits beschrieben eine seitliche Neigung des Kopfes oder eine Neigung des Kopfes nach vorne oder hinten umfassen. Dies ist besonders relevant, wenn die natürliche, habituelle Kopfhaltung der Person zum Zeitpunkt der Bestimmung der Parameter zur Brillenanpassung berücksichtigt werden soll, da die Neigung des Kopfes die Bestimmung mancher Parameter zur Viewing height. Consideration is therefore relevant to the lens centering and can be used for subsequent correction of the transparency height if necessary. The parameters for adjusting the glasses are determined on the basis of the determined actual head position. In this way, for example, deviations from the desired head position and / or head position (eg in the axial direction) relative to a device used can be taken into account in determining the parameters for spectacle fitting. The actual head position can be as above described include a lateral inclination of the head or an inclination of the head forward or backward. This is particularly relevant if the natural, habitual head posture of the person at the time of determining the parameters for spectacle fitting is to be taken into account, since the inclination of the head determines the determination of some parameters
Brillenanpassung, z.B. die Bestimmung einer Fassungsvorneigung oder die Bestimmung einer Durchblickhöhe, beeinflussen kann. Hierzu kann die Person aufgefordert werden, die natürliche Kopfhaltung einzunehmen, welche dann als Ist-Kopfposition erfasst wird. Diese erfasste Ist- Kopfposition wird dann zur Bestimmung der Parameter zur Brillenanpassung herangezogen. So können die Parameter zur Brillenanpassung passend für die natürliche Kopfposition bestimmt werden. Spectacle fitting, e.g. the determination of a premonition or the determination of an overview height, can influence. For this purpose, the person may be asked to take the natural head posture, which is then detected as actual head position. This detected actual head position is then used to determine the parameters for adjusting the glasses. Thus, the parameters for adjusting the glasses can be determined suitably for the natural head position.
Beispielsweise kann hierzu aus der Tiefeninformation zumindest ein grobes 3D-Modell des Kopfes erstellt werden, aus welchem die Kopfhaltung und Kopfposition des Benutzers ersichtlich ist. Hierdurch kann dem Benutzer eine Rückmeldung hinsichtlich der Positionierung des Kopfes gegeben werden, beispielsweise kann der Benutzer angewiesen werden, den Kopf für eine Messung anders zu platzieren, beispielsweise wenn relevante Teile des Kopfes nicht erfasst werden können. Zudem kann auch festgestellt werden, wenn sich die Kopfhaltung von einer vorher festgestellten habituellen Kopfhaltung des Benutzers unterscheidet oder wenn nicht eine für eine Messung gewünschte Nullblickrichtung oder Hauptblickrichtung vorliegt. Somit kann der Kopf des Benutzers möglichst optimal im Messbereich der Vorrichtung positioniert werden. For example, for this purpose, at least one coarse 3D model of the head can be created from the depth information, from which the head posture and head position of the user can be seen. In this way, the user can be given a feedback regarding the positioning of the head, for example, the user can be instructed to place the head for a measurement differently, for example, if relevant parts of the head can not be detected. In addition, it can also be ascertained if the head posture differs from a previously established habitual head posture of the user or if there is not a zero-sighting direction or main direction of vision desired for a measurement. Thus, the head of the user can be positioned as optimally as possible in the measuring range of the device.
Das Bestimmen der Parameter zur Brillenanpassung kann dann auf Basis des aufgenommenen Bildes des Kopfes erfolgen. Die Person kann beim Aufnehmen des Bildes eine Brillenfassung ohne Brillengläser oder mit Stützscheiben (einfache Kunststoff Scheiben ohne optische Determining the parameters for adjusting the glasses can then be based on the recorded image of the head. The person can when taking the image a spectacle frame without lenses or with support discs (simple plastic discs without optical
Wirkung), oder eine Brille mit Brillengläsern (Gläser mit optischer Korrekturwirkung) oder auch keine Brillenfassung tragen. Derartige Stützscheiben sind beispielsweise manchmal in neuen Brillenfassungen in einem Augenoptikergeschäft eingebaut. Im letzten Fall kann das Verfahren dann die dreidimensionale Topographie des Gesichts messen und anatomische Parameter (z.B. den Abstand der Pupillen) als die Parameter bestimmen, die dann zur Brillenanpassung verwendet werden können. Indem die dreidimensionale Topographie herangezogen wird, können derartige Parameter insbesondere unabhängig von der Kopfposition bestimmt werden. Effect), or wear glasses with lenses (glasses with optical correction effect) or no spectacle frame. For example, such support discs are sometimes incorporated in new spectacle frames in an optometrist shop. In the latter case, the method can then measure the three-dimensional topography of the face and determine anatomical parameters (e.g., the distance of the pupils) as the parameters that can then be used for spectacle fitting. In particular, by using the three-dimensional topography, such parameters can be determined independently of the head position.
Durch die Aufnahme des Bildes können weitere Informationen zusätzlich zu der By taking the picture, additional information can be added to the picture
Tiefeninformation zur Bestimmung der Parameter zur Brillenanpassung herangezogen werden, beispielsweise aus dem Bild entnommene Abmessungen des Kopfes der Person. Dabei kann das Verfahren ein Skalieren des aufgenommenen Bildes auf Basis der Tiefeninformation und/oder ein Skalieren von auf Basis des Bilds bestimmter Parameter zur Brillenanpassung auf Basis der Tiefeninformation umfassen. Durch die Skalierung des aufgenommenen Bildes auf Basis der Tiefeninformation kann eine genauere Bestimmung der Parameter zur Brillenanpassung erreicht werden, da so das aufgenommene Bild Abmessungen korrekt wiedergeben kann und diese Abmessungen dem Bild entnommen werden können. Depth information for determining the parameters for eyeglass adjustment are used, for example, taken from the image dimensions of the head of the person. In this case, the method may include scaling the recorded image on the basis of the depth information and / or scaling based on the image parameters for spectacle fitting based on the depth information. By scaling the captured image based on the depth information, a more accurate determination of the spectacle fitting parameters can be achieved since the captured image can accurately reflect dimensions and these dimensions can be extracted from the image.
Das Verfahren kann weiter ein Rektifizieren des aufgenommenen Bildes auf Basis der The method may further include rectifying the captured image based on the
Tiefeninformation umfassen. Ein Rektifizieren ist dabei als Ausrichten und/oder Entzerrendes aufgenommenen Bildes zu verstehen, so dass z.B. auch bei schräger Kopfstellung, die zu Verzerrungen in dem Bild führt, aus dem rektifizierten Bild korrekte Parameter zur Include depth information. A rectification is to be understood as an alignment and / or equalization of the recorded image, so that e.g. Even with an oblique head position, which leads to distortions in the image, correct parameters from the rectified image
Brillenanpassung entnommen werden. Das Erfassen der Tiefeninformation und/oder das Aufnehmen eines Bildes kann mehrmals wiederholt werden, wobei das Verfahren weiter eine Kombination der jeweiligen erzeugten Tiefeninformationen und/oder Bilder umfasst, z.B. durch eine zeitliche Mittelung. . Ein hierfür geeignetes Verfahren ist beispielsweise in „Rapid Avatar Capture and Simulation using Eyeglass adjustment can be taken. The acquisition of the depth information and / or the taking of an image may be repeated several times, the method further comprising a combination of the respective generated depth information and / or images, e.g. through a temporal averaging. , A suitable method for this purpose is, for example, in "Rapid Avatar Capture and Simulation using
Commodity Depth Sensors"; A. Shapiro, A. Feng, R. Wang, Hao Li, M. Bolas, G. Medioni, E. Suma in Computer Animation and Virtual Worlds 2014, Proceedings of the 27th Conference on Computer Animation and Social Agents, 05/2014 - CASA 2014 beschrieben. Commodity Depth Sensors "A. Shapiro, A. Feng, R. Wang, Hao Li, M. Bolas, G. Medioni, E. Suma in Computer Animation and Virtual Worlds 2014, Proceedings of the 27th Conference on Computer Animation and Social Agents , 05/2014 - CASA 2014 described.
Durch eine derartige Mittelung kann die Genauigkeit der Bestimmung der Parameter zur Brillenanpassung erhöht werden. Mehrere Tiefeninformationen und/oder mehrere Bilder können jedoch auch anders als mit Mittelung kombiniert werden, um die Genauigkeit zu erhöhen. By means of such averaging, the accuracy of the determination of the parameters for adjusting the glasses can be increased. However, multiple depth information and / or multiple images may be combined differently than with averaging to increase accuracy.
Beispielsweise kann dieses Kombinieren ein zeitliches Anpassen einer Funktion (oder mehrerer Funktionen; im Englischen als„Fit" bezeichnet), z.B. ein Anpassen einer Polynomfunktion oder anderen geeigneten Funktion, oder auch ein kombiniertes räumliches und zeitliches Anpassen der Funktion, z.B. von Polynom- und Splinefunktionen, erfolgen. Bei einem zeitlichen Anpassen der Funktion erfolgt eine Anpassung über mehrere zeitlich aufeinanderfolgend aufgenommene Tiefeninformationen oder Bilder, bei einem kombinierten räumlichen und zeitlichen Anpassen zudem räumlich über die Bilder oder die Tiefeninformation (z.B: über verschiedene Teile des erfassten Gesichts hinweg). Dabei werden ein oder mehrere entsprechende Funktionen so an die Tiefeninformationen und/oder Bilder angepasst, z.B. durch Anpassung von Koeffizienten der Funktion (z.B. Polynomialkoeffizienten bei einer Polynomialfunktion), dass die Funktion möglichst nahe an den Tiefeninformationen und/oder Bildern liegt. Weitere For example, this combining may be a temporal adaptation of a function (or functions), eg, adaptation of a polynomial function or other suitable function, or a combined spatial and temporal adaptation of the function, eg polynomial and spline functions If the function is temporally adjusted, adaptation takes place via a plurality of depth information or images taken in chronological succession, or spatially via the images or the depth information (for example: across different parts of the detected face) during a combined spatial and temporal adaptation one or more corresponding functions adapted to the depth information and / or images, for example by adaptation of coefficients of the function (eg polynomial coefficients in a polynomial function) that the function as close as possible to the depth information and / or images. Further
Verarbeitungsschritte können dann auf Basis der Funktion oder der Funktionen erfolgen. Processing steps may then be based on the function or functions.
Das Kombinieren der Bilder oder Tiefeninformationen, z.B. durch Mittelung oder Anpassen einer Funktion, kann unter Verwendung eines rigiden Registrierungsverfahrens (d. h. eines Verfahrens, welches nur Rotationen und Translationen benutzt) geschehen, um verschiedene Tiefeninformationen und/oder aufgenommene Bilder zur Deckung zu bringen. Dabei werden sich auf denselben Teil des Kopfes beziehende Teile, z.B. Messdaten, der Tiefeninformation oder sich auf denselben Teil des Kopfes beziehende Teile der Bilder zur Deckung gebracht. Dies ist insbesondere dann nötig, wenn sich der Kopf zwischen den einzelnen Messungen bewegt. Es können jedoch auch nicht-rigide Verfahren (d.h. Verfahren, welche auch andere Operationen wie Verzerrungen benutzen) ganz oder für manche Teile der Tiefeninformationen und/oder Bilder verwendet werden, z.B. um Bewegungen wie Augenlidbewegungen zu berücksichtigen, beispielsweise das Dynamic-Fusion-Verfahren (beschrieben beispielsweise in „DynamicFusion: Reconstruction and tracking of non-rigid scenes in real-time", Richard A.Combining the images or depth information, e.g. By averaging or fitting a function, it can be done using a rigid registration method (i.e., a method that uses only rotations and translations) to accommodate different depth information and / or captured images. Thereby, parts relating to the same part of the head, e.g. Measurement data, the depth information or parts of the images relating to the same part of the head brought to coincide. This is especially necessary when the head moves between the individual measurements. However, non-rigid methods (i.e., methods which also use other operations such as distortions) may be used wholly or for some parts of the depth information and / or images, e.g. to account for movements such as eyelid movements, such as the Dynamic Fusion method (described, for example, in "Dynamic Fusion: Reconstruction and tracking of non-rigid scenes in real-time", Richard A.
Newcombe, Dieter Fox, Steven M. Seitz; The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 343-352). Newcombe, Dieter Fox, Steven M Seitz; The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 343-352).
Bevorzugt werden derartige nicht-rigide Verfahren nur für Bereiche des Gesichts verwendet, welche entweder nicht für die spätere Bestimmung von Parametern relevant sind oder sich schnell bewegen können. Die beiden oben erwähnten Typen von Registrierverfahren, um die verschiedenen Messungen (Tiefeninformation und/oder Bilder) zur Deckung zu bringen, können unabhängig voneinander oder in Kombination ausgeführt werden. Dabei kann das Verfahren weiter ein Verwerfen von Bildern und/oder Tiefeninformationen, welche vorbestimmte Kriterien erfüllen, umfassen. Diese Kriterien können beispielsweise ein Vorliegen einer zur Messung ungeeigneten Kopfhaltung, z.B. derart, dass interessierende Teile wie Augen, nicht sichtbar sind, oder ein Vorliegen eines geschlossenen Augenlids umfassen. Hierdurch können zur Bestimmung der Parameter zur Brillenanpassung weniger geeignete Bilder und/oder Tiefeninformationen (z.B. Bilder, bei denen ein Augenlid geschlossen ist) verworfen werden. Preferably, such non-rigid methods are used only for areas of the face which either are not relevant for the later determination of parameters or can move quickly. The two types of registration methods mentioned above for matching the different measurements (depth information and / or images) can be performed independently or in combination. The method may further include discarding images and / or depth information that meets predetermined criteria. These criteria may include, for example, the presence of a head posture unsuitable for measurement, e.g. such that parts of interest such as eyes are invisible or include a closed eyelid. As a result, less suitable images and / or depth information (e.g., images with an eyelid closed) may be discarded to determine the parameters for eyewear adaptation.
Das Verfahren des ersten Aspekts kann weiter umfassen, das Verfahren des zweiten Aspekts umfasst weiter: Darstellen eines Modells des Kopfes auf Basis der Tiefeninformation, und virtuelles Anpassen einer Brille an das Modell, wobei die Parameter zur Brillenanpassung auf Basis des virtuellen Anpassens bestimmt werden. In einem derartigen Fall ist es bevorzugt, dass die Person beim Erfassen der Tiefeninformation und ggfs. der Bilder keine Brille trägt, sodass ein Modell des Kopfes ohne Brille einfacher erstellt werden kann. An diesem Modell können dann verschiedene Brillenfassungen virtuell, d.h. ebenfalls als Modelle z.B. auf einer Anzeige, angepasst werden. Aus dem virtuellen Anpassen können dann die Parameter zur Brillenanpassung bestimmt werden, z.B. ein Typ der dann real zu verwendenden Brille, Abmessungen der dann real zu verwendenden Brille und/oder Zentrierparameter hierfür. The method of the first aspect may further comprise, the method of the second aspect further comprising: presenting a model of the head based on the depth information, and virtually fitting glasses to the model, wherein the parameters for adjusting the glasses are determined based on the virtual fitting. In such a case, it is preferable that the person wearing the depth information and possibly the images does not wear glasses, so that a model of the head without glasses can be made easier. Different eyewear frames can then be adapted to this model virtually, ie also as models eg on a display. From the virtual fitting then the parameters for adjusting glasses can be determined, for example, a type of glasses then to be used real, dimensions of the then actually used glasses and / or Zentrierparameter this.
Es kann hier also die erfasste Tiefeninformation, gegebenenfalls zusammen mit So here it can be the acquired depth information, possibly together with
aufgenommenen Bildern, auch als 3D-Modell des Kopfes auf einer Anzeige angezeigt werden. In anderen Worten, kann in diesem Fall ein 3D-Modell des Kopfes bei entsprechender recorded images, also displayed as a 3D model of the head on a display. In other words, in this case, a 3D model of the head at appropriate
Wiederholrate der Tiefeninformationserfassungseinrichtung in Echtzeit angezeigt werden, was einem virtuellen Spiegel entspricht. Dieses 3D-Modell kann dann mit verschiedenen virtuellen Brillenfassungen kombiniert werden, um der Person einen ersten Eindruck der optischen Wirkung verschiedener Brillenfassungen zu geben. Es kann dann eine der Brillenfassungen ausgewählt werden. Der Typ dieser Brillenfassung kann ebenso als Parameter zur  Repeat rate of the depth information detection device are displayed in real time, which corresponds to a virtual mirror. This 3D model can then be combined with various virtual spectacle frames to give the person a first impression of the optical effect of different spectacle frames. One of the spectacle frames can then be selected. The type of this spectacle frame can also be used as a parameter for
Brillenanpassung angesehen werden. Auch ist es möglich, bei einer derartigen Anpassung einer virtuellen Brillenfassung Parameter zur Brillenanpassung, die dann zur Anpassung einer realen Brille verwendet werden, zu bestimmen, und welche Abmessungen der Brillenfassung beschreiben. Dies kann beispielsweise durch Variieren derartiger Parameter, bis eine optimale Anpassung erreicht ist, geschehen. Beispiele für derartige Parameter sind z.B. Scheibenbreite, Scheibenhöhe und Brückenweite der Brillenfassung. So kann beispielsweise der Brillensteg an die Form des Nasenrückens im 3D-Modell angepasst werden.  Eyeglass adjustment can be viewed. It is also possible in such an adjustment of a virtual spectacle frame parameters for spectacle fitting, which are then used to adjust a real glasses to determine, and describe the dimensions of the spectacle frame. This can be done, for example, by varying such parameters until optimal matching is achieved. Examples of such parameters are e.g. Disc width, disc height and bridge width of the spectacle frame. For example, the eyeglass bridge can be adapted to the shape of the nasal bridge in the 3D model.
An einer derartigen ausgewählten virtuellen Brillenfassung auf dem 3D-Modell des Kopfes können dann ebenso Zentrierparameter bestimmt werden. In anderen Worten können mit Ausführungsbeispielen der vorliegenden Erfindung Zentrierparameter mit realen Centering parameters can then also be determined on such a selected virtual spectacle frame on the 3D model of the head. In other words, with embodiments of the present invention centering parameters with real
Brillenfassungen (welche bei den Messungen von der Person getragen werden) oder auch mit virtuellen Brillenfassungen (welche einem 3D-Modell des Kopfes angepasst werden) vorgenommen werden. Spectacle frames (which are worn in the measurements of the person) or with virtual spectacle frames (which are adapted to a 3D model of the head) are made.
Es wird zudem ein Computerprogramm mit einem Programmcode bereitgestellt, der, wenn er auf einem Prozessor ausgeführt wird, bewirkt, dass der Prozessor eines der oben There is also provided a computer program having a program code which, when executed on a processor, causes the processor to be one of the above
beschriebenen Verfahren ausführt und/oder dessen Ausführung steuert. Das executes described method and / or its execution controls. The
Computerprogramm kann auf einem computerlesbaren Medium gespeichert sein. Gemäß einem dritten Aspekt wird eine Vorrichtung zur Bestimmung von Parametern zur Brillenanpassung bereitgestellt, umfassend eine Tiefeninformationserfassungseinrichtung zur Erfassung einer Tiefeninformation bezüglich eines Kopfes eines Benutzers, wobei die Computer program may be stored on a computer readable medium. According to a third aspect, there is provided an apparatus for determining parameters for adjusting glasses, comprising depth information detection means for detecting depth information relating to a head of a user, wherein the
Tiefeninformation zumindest einen Abstand des Kopfes zu der Vorrichtung umfasst, und eine Auswerteeinrichtung, welche eingerichtet ist, Parameter zur Brillenanpassung auf Basis der erfassten Tiefeninformation zu bestimmen. Depth information comprises at least one distance of the head to the device, and an evaluation device which is adapted to determine parameters for adjusting the glasses based on the detected depth information.
Durch die Bestimmung eines Abstandes zwischen der Tiefeninformationserfassungseinrichtung und dem Kopf der zu untersuchenden Person können Positionierungen der zu untersuchenden Person, die von einer Sollposition oder bevorzugten Position abweichen, bei der Bestimmung der Parameter zur Brillenanpassung ausgeglichen werden. By determining a distance between the depth information detection device and the head of the person to be examined, positions of the person to be examined, which deviate from a desired position or preferred position, can be compensated for in determining the parameters for adjusting the glasses.
Die Tiefeninformationserfassungseinrichtung kann eine Lichtfeldkamera umfassen. Eine derartige Lichtfeldkamera wird auch als plenoptische Kamera bezeichnet. The depth information acquisition device may comprise a light field camera. Such a light field camera is also referred to as a plenoptic camera.
Lichtfeldkameras erfassen, in gewisser Weise ähnlich wie holographische Aufnahmesysteme, das sogenannte Lichtfeld einer Szenerie. Dabei werden nicht nur Intensitätsinformationen aufgenommen wie bei einer herkömmlichen Kamera, sondern zusätzliche Informationen über die Richtung, aus der ein jeweiliger Lichtstrahl kommt. Das aufgenommene Signal (welches beispielsweise mit einem herkömmlichen Bildsensor aufgezeichnet wird) enthält hierdurch bei einer Lichtfeldkamera sowohl Bildinformationen als auch eine Tiefeninformation, die aus den Intensitätsinformationen und den Informationen über die Richtung der Lichtstrahlen erhalten werden. Hierdurch kann ein aufgenommenes Objekt wie beispielsweise der Kopf der Person zumindest bis zu einem gewissen Grad (abhängig von der Implementierung der Light field cameras capture, in a sense similar to holographic recording systems, the so-called light field of a scene. Not only are intensity information recorded as in a conventional camera, but additional information about the direction from which a respective light beam comes. The recorded signal (which is recorded, for example, with a conventional image sensor) thereby contains in a light field camera both image information and depth information obtained from the intensity information and the information about the direction of the light rays. This allows a captured object, such as the person's head, to be at least to some degree (depending on the implementation of the
Lichtfeldkamera) dreidimensional rekonstruiert werden, und Abstände zwischen dem Kopf und der Lichtfeldkamera werden erfasst. Mit einer derartigen Lichtfeldkamera kann also Light field camera) are reconstructed three-dimensionally, and distances between the head and the light field camera are detected. With such a light field camera so can
beispielsweise die Funktionalität der Tiefeninformationserfassungseinrichtung und die For example, the functionality of the depth information detection device and the
Funktionalität einer Kamera kombiniert werden. Hierdurch ist ein entsprechend kompakter Aufbau möglich. Functionality of a camera. As a result, a correspondingly compact construction is possible.
Bei manchen Ausführungsformen derartiger Lichtfeldkameras wird eine In some embodiments of such light field cameras is a
Multimikrolinsenanordnung verwendet, welche in einer definierten Ebene vor einem Bildsensor angebracht ist. Die einzelnen Linsen der Mikrolinsenanordnung erzeugen unterschiedliche Bildinformationen auf dem Bildsensor. Aus der gesamten Bildinformation auf dem Bildsensor kann das Lichtfeld rekonstruiert werden. Die Tiefeninformationserfassungseinrichtung kann eingerichtet sein, ein Tiefenprofil eines interessierenden Bereichs des Kopfes zu erfassen. Unter Tiefenprofil versteht man eine Angabe eines Abstands von Punkten des interessierenden Bereichs von einer Referenzfläche (z.B. durch die Tiefeninformationserfassungseinrichtung definiert) in Abhängigkeit von einer Position in einer Ebene parallel zur Referenzfläche, beispielsweise einer Position in einem Used multi-microlens arrangement, which is mounted in a defined plane in front of an image sensor. The individual lenses of the microlens array generate different image information on the image sensor. From the entire image information on the image sensor, the light field can be reconstructed. The depth information acquisition device may be configured to detect a depth profile of a region of interest of the head. A depth profile is an indication of a distance of points of the region of interest from a reference surface (eg defined by the depth information acquisition device) as a function of a position in a plane parallel to the reference surface, for example a position in one
aufgenommenen 2D-Bild. Auf Basis des Tiefenprofils kann die Auswerteeinrichtung ein Modell des interessierenden Bereichs gleichsam als virtuellen Spiegel anzeigen, was z.B. eine virtuelle Anpassung von Brillen ermöglichen kann. Dabei ist zu berücksichtigen, dass der Benutzer zum Zeitpunkt der Erzeugung der Tiefeninformation und Bildinformation entweder eine captured 2D image. On the basis of the depth profile, the evaluation device can display a model of the region of interest, as it were, as a virtual mirror, which is known e.g. enable a virtual adaptation of glasses. It should be noted that the user at the time of generating the depth information and image information either a
Brillenfassung tragen kann, oder keine Brillenfassung tragen kann. Für die virtuelle Anpassung von Brillenfassungen ist es vorteilhaft, wenn der Anwender bei der Aufnahme keine Can wear glasses frame, or can wear no glasses frame. For the virtual adjustment of spectacle frames, it is advantageous if the user when recording no
Brillenfassung trägt. Wearing spectacle frame.
Die Tiefeninformationserfassungseinrichtung kann auf Basis von Infrarotstrahlung arbeiten. Hierdurch wird ein Benutzer durch die Messung nicht gestört. Beispielsweise kann ein kamerabasierter Infrarottiefensensor, bei welchem ein Infrarotmuster von einem The depth information detection device may operate based on infrared radiation. As a result, a user is not disturbed by the measurement. For example, a camera-based infrared depth sensor in which an infrared pattern of a
Projektionssystem erzeugt wird und durch Aufnahme der so beleuchteten Szenerie mit einer Infrarotkamera die Tiefe der Objekte in der Szenerie gemittelt werden, also beispielsweise ein Tiefenprofil des Kopfes erstellt werden kann. Derartige Tiefensensoren sind kommerziell erhältlich. Sie erlauben vergleichsweise hohe Bildwiederholraten, beispielsweise von 30 Hz oder 60 Hz. Projection system is generated and the depth of the objects in the scene are averaged by recording the so-lit scenery with an infrared camera, so for example, a depth profile of the head can be created. Such depth sensors are commercially available. They allow comparatively high refresh rates, for example of 30 Hz or 60 Hz.
Statt Infrarotmustern können auch Muster im sichtbaren Lichtbereich verwendet werden. Instead of infrared patterns, patterns in the visible light range can also be used.
Derartige Verfahren sind auch unter dem Begriff Streifen projektion bekannt. Dabei werden verschiedene Bildmuster und/oder Bildsequenzen auf eine Oberfläche (in diesem Fall auf den Kopf) projiziert und ein Bild des Objekts mit einer Kamera (die die oben erwähnte 2D-Kamera sein kann oder von dieser verschieden sein kann) aufgenommen. Die Kamera steht dabei unter einem definierten Winkel zum Projektionssystem. Durch die dreidimensionale Oberfläche des Messobjekts, hier des Kopfes, und die Triangulationsbasis (das heißt Abstand zwischen dem Projektor und der Kamera) sehen die auf dem Bildsensor der Kamera abgebildeten Muster verändert oder deformiert aus, woraus wiederum die Tiefeninformation und die Topographie der beleuchteten Oberfläche ermittelt werden kann. Insbesondere kann so auch der Abstand des Kopfes von der Tiefeninformationserfassungseinrichtung ermittelt werden. Die Verwendung von Infrarotlicht wie oben beschrieben ist jedoch bevorzugt, da in diesem Fall eine normale Such methods are also known by the term strip projection. In the process, various image patterns and / or image sequences are projected onto a surface (in this case upside down) and an image of the object taken with a camera (which may be or differ from the above-mentioned 2D camera). The camera stands at a defined angle to the projection system. The three-dimensional surface of the target, here the head, and the triangulation base (that is, the distance between the projector and the camera) make the patterns imaged on the camera's sensor changed or deformed, from which the depth information and topography of the illuminated surface are determined can be. In particular, the distance of the head from the depth information acquisition device can thus also be determined. However, the use of infrared light as described above is preferred because in this case a normal
Bildaufnahme nicht gestört wird und beispielsweise der Benutzer auch nicht durch die Image capture is not disturbed and, for example, the user is not affected by the
Lichtmuster irritiert wird. Die Tiefeninformationserfassungseinrichtung kann einen Laufzeitsensor umfassen, über welchen der Abstand über eine Laufzeit eines Signals bestimmt wird, wobei die Laufzeit direkt oder in Form einer Phasenverschiebung gemessen werden kann. Light pattern is irritated. The depth information acquisition device may comprise a transit time sensor, via which the distance is determined over a transit time of a signal, wherein the transit time can be measured directly or in the form of a phase shift.
Bei derartigen Laufzeitsensoren wird im Wesentlichen ein Signal von der In such runtime sensors is essentially a signal from the
Tiefeninformationserfassungseinrichtung zu dem Kopf geschickt und ein von dem Kopf reflektiertes Signal erfasst. Aus der Laufzeit des Signals zu und von dem Kopf und der Geschwindigkeit des Signals kann dann der Abstand ermittelt werden, wobei dies Depth information detection device sent to the head and detects a signal reflected from the head. From the duration of the signal to and from the head and the speed of the signal, the distance can then be determined, this being
beispielsweise durch ein scannendes Verfahren auch an einer Vielzahl von Punkten erfolgen kann. Statt die Laufzeit direkt zu messen, wird häufig - insbesondere wenn Lichtpulse als Signal verwendet werden - eine Phasendifferenz zwischen einer Modulation des reflektierten Strahls und einer entsprechenden Modulation des von dem gesendeten Strahl abgeleiteten Referenzstrahl bestimmt. For example, by a scanning method can also be done at a variety of points. Instead of measuring the transit time directly, a phase difference between a modulation of the reflected beam and a corresponding modulation of the reference beam derived from the transmitted beam is frequently determined-in particular if light pulses are used as a signal.
Statt Lichtpulsen können jedoch auch andere Arten von Signalen, beispielsweise Instead of light pulses, however, other types of signals, for example
Ultraschallsignale, verwendet werden. Ultrasonic signals are used.
Besonders bevorzugt werden Laufzeitsensoren verwendet, welche sogenannte Particular preference is given to using travel time sensors, which are so-called
Laufzeitkameras mit lateral auflösenden Tiefensensoren verwendet. Beispiele für geeigneteRuntime cameras used with lateral resolution depth sensors. Examples of suitable
Sensoren für derartige Laufzeitkameras sind Fotomischdetektorsensoren (PMD-Sensoren; vom Englischen„Photonic Mixing Device"). Diese Sensoren benutzen ein moduliertes Lichtsignal, beispielsweise Infrarotlicht, um den Kopf zu beleuchten, und erfassen das reflektierte Licht mit dem PMD-Sensor, welcher ebenfalls an eine zur Modulation verwendete Modulationsquelle gekoppelt ist. Hier wird also die Laufzeit indirekt über eine Phasenverschiebung gemessen. Sensors for such time-of-flight cameras are Photonic Mixing Device (PMD) sensors, which use a modulated light signal, such as infrared light, to illuminate the head, and detect the reflected light with the PMD sensor also on A modulation source used for the modulation is coupled, ie the transit time is measured indirectly via a phase shift.
Mit entsprechenden Laufzeitsensoren können dabei Objekte wie der Kopf mit einer hohen Bildwiederholrate von beispielsweise im Bereich von 30 bis 60 Hz und hoher Auflösung abgetastet werden, so dass Tiefeninformationen mit Bildwiederholraten vergleichbar einer Videorate zur Verfügung gestellt werden können. Dabei kann ein gesamtes Tiefenprofil des Kopfes erstellt werden. With corresponding time-of-flight sensors, objects such as the head can be scanned at a high refresh rate, for example in the range of 30 to 60 Hz and high resolution, so that depth information with refresh rates comparable to a video rate can be made available. In this case, an entire depth profile of the head can be created.
Durch derartige Laufzeitsensoren ist es also möglich Tiefeninformation mit einer hohen Wiederholrate und/oder einer hohen Genauigkeit zu bestimmen. Auch eine robuste Erfassung der Tiefeninformation, weitgehend unabhängig von Raumbeleuchtung etc. kann damit realisiert werden, da z.B. keine korrespondierenden Punkte in Stereobildpaaren gefunden werden müssen. By such time-of-flight sensors, it is thus possible to determine depth information with a high repetition rate and / or high accuracy. Even a robust detection of depth information, largely independent of room lighting, etc. can be realized because, for example, no corresponding points have to be found in stereo image pairs.
Eine weitere Art von Tiefeninformationserfassungseinrichtungen, welche bei Another type of depth information detection device, which at
Ausführungsbeispielen verwendet werden können, verwendet eine Abstandsmessung mittels optischer Triangulation, beispielsweise Lasertriangulation. Das Prinzip der optischen Embodiments can be used, uses a distance measurement by means of optical triangulation, such as laser triangulation. The principle of the optical
Triangulation beruht darauf, dass ein Lichtfleck auf dem zu messenden Objekt (in dem vorliegenden Fall dem Kopf oder ein Teil hiervon) mit einem Laser, einer Leuchtdiode (LED) oder einen anderen Lichtquelle erzeugt wird. Dies kann im sichtbaren Bereich oder auch im Infrarotbereich geschehen. Der Lichtfleck wird über eine Kamera, zum Beispiel einen CCD- Kamera (Charge Coupled Device), eine CMOS-Kamera oder eine Zeilenkamera, abgebildet. Die Lichtquelle und die Kamera stehen in einem definierten Winkel zueinander Aufgrund der trigonometrischen Zusammenhänge kann aus der Verschiebung des abgebildeten Lichtflecks auf dem Sensor, das heißt der Lage des Lichtflecks auf dem Sensor, die Entfernung zu dem zu messenden Objekt ermittelt werden. Insbesondere verschiebt sich der Lichtfleck in dem Bild mit zunehmender Entfernung zum zu messenden Objekt in einer Richtung von der Lichtquelle zu der Kamera, da aufgrund des Winkels zwischen Lichtquelle und Kamera das Licht mit zunehmender Entfernung auch eine größere Wegstrecke in Richtung der Kamera zurücklegt. Eine derartige Messung kann auch zeilenweise erfolgen. Hierzu wird beispielsweise eine Laserlinie auf den Kopf projiziert. Aus einem Kamerabild der Laserlinie kann dann die Triangulation is based on the fact that a light spot on the object to be measured (in the present case the head or a part thereof) with a laser, a light emitting diode (LED) or another light source is generated. This can be done in the visible range or in the infrared range. The light spot is imaged via a camera, for example a CCD camera (charge coupled device), a CMOS camera or a line scan camera. The light source and the camera are at a defined angle to each other Due to the trigonometric relationships can be determined from the displacement of the imaged light spot on the sensor, that is, the location of the light spot on the sensor, the distance to the object to be measured. In particular, the light spot in the image shifts with increasing distance to the object to be measured in a direction from the light source to the camera, because due to the angle between the light source and camera, the light also covers a greater distance in the direction of the camera with increasing distance. Such a measurement can also be done line by line. For this purpose, for example, a laser line is projected onto the head. From a camera image of the laser line can then
Tiefeninformation entlang der Laserlinie insbesondere auf Basis von Verschiebungen senkrecht zur Richtung der Laserlinie übermittelt werden. Somit kann die Topographie des Kopfes entlang der Linie bestimmt werden. Mit einem scannenden System, bei welchem die Laserlinie über den Kopf fährt, kann dann der gesamte Kopf bzw. ein interessierender Teil hiervon, beispielsweise eine Augenpartie inklusive einer Brille, vermessen werden. Depth information along the laser line are transmitted in particular on the basis of shifts perpendicular to the direction of the laser line. Thus, the topography of the head along the line can be determined. With a scanning system in which the laser line moves over the head, then the entire head or a part of interest thereof, for example an eye area including a pair of spectacles, can be measured.
Dabei ist insbesondere bei Verwendung einer Laserlichtquelle darauf zu achten, dass die Augen der zu untersuchenden Person durch den Laser nicht geschädigt werden können. It must be ensured in particular when using a laser light source that the eyes of the person to be examined by the laser can not be damaged.
Insbesondere ist die Intensität des Lasers hinreichend niedrig zu wählen. Hier ist Infrarotlicht bevorzugt. In particular, the intensity of the laser is to be chosen sufficiently low. Here infrared light is preferred.
Eine Kamera für eine derartige optische Abstandsmessung mittels Triangulation kann eine von einer ggfs. zur Bildaufnahme zusätzlich vorhandenen 2D-Kamera, getrennte Kamera sein. Es kann auch eine einzige Kameraeinrichtung verwendet werden, die beispielsweise bei A camera for such an optical distance measurement by means of triangulation can be one of a possibly additionally provided for image recording 2D camera, separate camera. It can also be used a single camera device, for example, at
Verwendung von sichtbarem Licht Bereiche außerhalb der oben erwähnten Laserlinie oder anderen Lichtlinien zur Bildaufnahme verwenden kann und gleichzeitig die Laserlinie aufnehmen kann, oder bei Verwendung von Infrarotlicht beispielsweise mittels eines Use of visible light areas outside the above-mentioned laser line or can use other light lines for image recording and at the same time can accommodate the laser line, or when using infrared light, for example by means of a
schaltbaren Filters periodisch zwischen der Messung von Tiefeninformation und der Aufnahme eines Bildes umschaltbar sein kann. Bei anderen Ausführungsbeispielen wird gar keine switchable filter periodically between the measurement of depth information and the recording of an image can be switched. In other embodiments, none at all
Bildaufnahme mit einer 2D-Kamera durchgeführt, sondern es wird lediglich beispielsweise mit einem scannenden System wie oben beschrieben, bei welchem eine Laserlinie über den Kopf gefahren wird, ein gesamtes Tiefenprofil und somit die Topographie des Kopfes ermittelt. Image acquisition is performed with a 2D camera, but it is merely an example, with a scanning system as described above, in which a laser line is moved over the head, a total depth profile and thus determines the topography of the head.
Bei einem weiteren Ausführungsbeispiel kann die Tiefeninformation auch durch ein In a further embodiment, the depth information can also by a
Stereokameraverfahren mittels Triangulation bestimmt werden. Im Gegensatz zu der eingangs erläuterten EP 1 844 363 B2 wird hier ein Paar von Kameras nicht nur zur Bestimmung eines 3D-Models genutzt, sondern es wird auch explizit ein Abstand von dem Kopf zu den Stereocamera method be determined by triangulation. In contrast to the above-mentioned EP 1 844 363 B2, here a pair of cameras is not only used to determine a 3D model, but it is also explicitly a distance from the head to the
Stereokameras bestimmt. Dabei werden zwei unter einem vorgegebenen Winkel zueinander oder mehrere unter mehreren vorgegebenen Winkeln zueinander angeordnete Kameras verwendet. Stereo cameras determined. In this case, two are used at a predetermined angle to each other or more at several predetermined angles to each other arranged cameras.
Bei einer Verwendung von zwei Kameras, also z.B. eines Stereokamerasystems, wird die Tiefenbestimmung eines Objektpunkts über eine Bestimmung der Parallaxe des jeweiligen Objektpunkts in den zwei Kamerabildern vorgenommen, das heißt eine Verschiebung von Objektpunkten zwischen den Kamerabildern. Der Fehler einer derartigen Tiefenmessung ist proportional zum Quadrat des Abstandes zwischen den Kameras und dem Kopf und umgekehrt proportional zu der Stereobasis, das heißt dem Abstand beider Kameras. Somit muss hier die Stereobasis ausreichend groß genug werden, um für typische Abstände im Betrieb der When using two cameras, e.g. of a stereo camera system, the depth determination of an object point is made by determining the parallax of the respective object point in the two camera images, that is to say a displacement of object points between the camera images. The error of such a depth measurement is proportional to the square of the distance between the cameras and the head and inversely proportional to the stereo base, that is, the distance of both cameras. Thus, the stereo base must be sufficiently large enough for typical distances in the operation of the
Vorrichtung eine hinreichende Genauigkeit zu erzielen, um die Tiefeninformation zu erhalten. „Hinreichende Genauigkeit" bedeutet dabei insbesondere, dass die Parameter zur Device to achieve sufficient accuracy to obtain the depth information. "Sufficient accuracy" means in particular that the parameters for
Brillenanpassung mit einer für die Brillenanpassung gewünschten oder benötigten Genauigkeit bestimmt werden können. Eyewear adjustment can be determined with a desired or required for the eyeglass adjustment accuracy.
Da bei dieser Herangehensweise korrespondierende Punkte oder Bereiche in den beiden Bildaufnahmen identifiziert werden müssen, muss der zu untersuchende Bereich des Kopfes ausreichend Struktur (insbesondere Linien oder Kanten) aufweisen, um eine derartige Since corresponding points or areas in the two image recordings must be identified in this approach, the area of the head to be examined must have sufficient structure (in particular lines or edges) to be such
Korrespondenz mit einem hierzu verwendeten Verfahren identifizieren zu können. Objekte, bei denen dieses üblicherweise gut geht, sind Augen, Augenbrauen, Nase und andere markante Gesichtsmerkmale. Bei manchen Ausführungsbeispielen kann zudem noch eine Struktur auf den Kopf projiziert werden, beispielsweise binäre Muster, Linien, Punkte etc., um die Identify correspondence with a method used for this purpose. Objects that usually do well include the eyes, eyebrows, nose, and other prominent facial features. In addition, in some embodiments, a structure may still be projected upside down, such as binary patterns, lines, dots, etc., around the
Identifizierung korrespondierender Bereich zu erleichtern. Bei Implementierung der Tiefeninformationserfassungseinrichtung z.B. als Laufzeitsensor oder als Lichtfeldkamera ist jedoch ein kompakterer Aufbau als beispielsweise mit einem Identification corresponding area to facilitate. When implementing the depth information acquisition device, for example, as a runtime sensor or as a light field camera, however, a more compact structure than, for example, with a
Stereokamerasystem möglich, da kein Winkel zwischen zwei Kameras bereitgestellt werden muss. Somit sind Laufzeitsensoren, Lichtfeldkameras und dergleichen als Stereo camera system possible because no angle between two cameras must be provided. Thus, time-of-flight sensors, light field cameras and the like are known
Tiefeninformationserfassungseinrichtungen in Fällen, in denen es auf einen kompakten Aufbau ankommt, gegenüber einem Stereokamerasystem bevorzugt.  Depth information detection devices in cases where it depends on a compact design, compared to a stereo camera system preferred.
Die vorliegende Erfindung ist nicht auf die oben beschriebenen Arten von The present invention is not limited to the above-described types of
Tiefeninformationserfassungseinrichtungen beschränkt. Es können auch Depth information detection devices limited. It can too
Tiefeninformationserfassungseinrichtungen mit anderen Tiefensensoren verwendet werden, beispielsweise wie bereits erwähnt Ultraschalltiefensensoren, Tiefensensoren, welche eine Tiefenmessung mittels optischer Kohärenztomographie (OCT) durchführen, konfokale Sensoren oder chromatisch konfokale Sensoren. Insgesamt kann jeder herkömmliche Tiefensensor verwendet werden, der eine Tiefeninformation hinsichtlich des Kopfes, insbesondere hinsichtlich der Augenpartie und der Brille, hinreichend genau erfassen kann und dabei keine Gefahr für die Augen des Benutzers (beispielsweise durch zu intensive Strahlung) darstellt. „Hinreichend genau" bedeutet wiederum, dass letztendlich die Parameter zur Brillenanpassung mit einer zur Brillenanpassung gewünschten oder benötigten Genauigkeit bestimmt werden können.  Depth information detection devices are used with other depth sensors, for example, as already mentioned, ultrasonic depth sensors, depth sensors, which perform a depth measurement by means of optical coherence tomography (OCT), confocal sensors or chromatic confocal sensors. Overall, any conventional depth sensor can be used, which can capture a depth information with respect to the head, in particular with respect to the eye area and the glasses, sufficiently accurate and thereby does not pose a risk to the eyes of the user (for example, due to excessive radiation). "Sufficiently accurate" again means that finally the parameters for adjusting the glasses can be determined with an accuracy desired or required for adjusting the glasses.
Die Vorrichtung umfasst weiter zusätzlich zu der Tiefeninformationserfassungseinrichtung auch eine 2D-Kamera , d.h. eine (herkömmliche) Kamera zum Aufnehmen zweidimensionaler Bilder mittels eines Bildsensors, zum Aufnehmen eines Bildes zumindest eines Teils des Kopfes. Hierdurch stehen zusätzliche Informationen zur Bestimmung der Parameter zur The apparatus further includes, in addition to the depth information acquisition device, a 2D camera, i. a (conventional) camera for taking two-dimensional images by means of an image sensor, for taking an image of at least a part of the head. This provides additional information for determining the parameters
Brillenanpassung zur Verfügung, beispielsweise aus dem Bild entnommene Abmessungen des Kopfes der Person.  Eyeglass adjustment available, for example, taken from the picture dimensions of the head of the person.
Die Auswerteeinrichtung kann dabei zum Skalieren der Bilder auf Basis der Tiefeninformation und/oder zum Skalieren von auf Basis der Bilder bestimmter Parameter zur Brillenanpassung auf Basis der Tiefeninformation wie bereits oben erläutert eingerichtet sein. The evaluation device can be set up for scaling the images on the basis of the depth information and / or for scaling based on the images of certain parameters for adjusting glasses based on the depth information as already explained above.
Die Auswerteeinrichtung kann zudem zum Rektifizieren der Bilder auf Basis der The evaluation device can also rectify the images based on the
Tiefeninformation eingerichtet sein, wie oben bereits erläutert. Die Vorrichtung ist derart eingerichtet, dass die Tiefeninformationserfassungseinrichtung und die 2D-Kamera den Kopf über eine gemeinsame optische Achse erfassen. Die optische Achse entspricht dabei bei der Tiefeninformationserfassungseinrichtung einer Achse, auf der die Tiefeninformation erfasst wird, also gleichsam einer„Blickrichtung" der Depth information to be set up, as already explained above. The device is set up such that the depth information acquisition device and the 2D camera detect the head via a common optical axis. In the case of the depth information acquisition device, the optical axis corresponds to an axis on which the depth information is detected, that is to say a "viewing direction" of the axis
Tiefeninformationserfassungseinrichtung. Benutzt die Tiefeninformationserfassungseinrichtung eine abbildende Optik, so entspricht die optische Achse der optischen Achse dieser abbildenden Optik, üblicherweise einer geraden Verbindungslinie aller Krümmungsmittelpunkte von brechenden oder spiegelnden Flächen der abbildenden Optik. Lichtstrahlen auf der optischen Achse gehen ohne Ablenkung durch die abbildende Optik hindurch. Bei der 2D- Kamera entspricht die optische Achse der optischen Achse des Objektivs der 2D-Kamera, entsprechend der obigen Erläuterung für eine abbildende Optik. Depth information detector. If the depth information acquisition device uses imaging optics, then the optical axis corresponds to the optical axis of this imaging optic, usually a straight connecting line of all centers of curvature of refractive or reflecting surfaces of the imaging optics. Light rays on the optical axis pass through the imaging optics without deflection. In the case of the 2D camera, the optical axis corresponds to the optical axis of the lens of the 2D camera as described above for imaging optics.
Bei manchen Ausführungsbeispielen kann zum Vereinigen und Trennen der optischen Achsen von Tiefeninformationserfassungseinrichtung und 2D-Kamera ein Strahlteiler verwendet werden. Der Strahlteiler kann ein wellenlängenselektiver Strahlteiler sein. Bei derartigen Ausführungsbeispielen kann beispielsweise die 2D-Kamera sichtbares Licht aufnehmen, während die Tiefeninformationserfassungseinrichtung auf Basis von Infrarotstrahlung arbeitet. Bei anderen Ausführungsbeispielen ist der Strahlteiler nicht wellenlängenselektiv, und die 2D- Kamera und die Tiefeninformationserfassungseinrichtung benutzen zumindest teilweise einen gleichen Teil des Spektrums. Durch eine derartige Anordnung kann eine kompaktere In some embodiments, a beam splitter may be used to combine and separate the optical axes of the depth information acquisition device and the 2D camera. The beam splitter may be a wavelength-selective beam splitter. In such embodiments, for example, the 2D camera can record visible light, while the depth information detection device operates on the basis of infrared radiation. In other embodiments, the beam splitter is not wavelength selective, and the 2D camera and depth information acquisition device at least partially share an equal portion of the spectrum. By such an arrangement, a more compact
Vorrichtung als bei einer Stereokamera oder dergleichen erreicht werden, da kein Device can be achieved as in a stereo camera or the like, since no
entsprechender Winkel beispielsweise zwischen Bildaufnahmeeinrichtungen bereitgestellt werden muss. Zudem werden Tiefeninformation und Bildinformation der Kamera aus derselben Richtung aufgenommen, wodurch eine perspektivische Korrektur der Tiefeninformation relativ zu den Bilddaten entfallen kann. corresponding angle must be provided for example between image recording devices. In addition, depth information and image information of the camera are taken from the same direction, whereby a perspective correction of the depth information relative to the image data can be omitted.
Die Auswerteeinrichtung kann eingerichtet sein, auf Basis der Tiefeninformation eine The evaluation device can be set up based on the depth information
Kopfposition des Kopfes zu bestimmen, wobei das Bestimmen der Parameter zur Head position of the head to determine, wherein determining the parameters for
Brillenanpassung auf Basis der bestimmten Kopfposition erfolgt. Eyewear adjustment based on the specific head position.
Die Vorrichtung kann eingerichtet sein, das Erfassen der Tiefeninformation durch die The apparatus may be arranged to detect the depth information by the
Tiefeninformationserfassungseinrichtung und/oder das Aufnehmen der Bilder mit der 2D- Kamera mehrmals zu wiederholen, wobei die Auswerteeinrichtung dann zum Kombinieren mehrerer erfasster Tiefeninformationen und/oder mehrerer aufgenommener Bilder, z.B. in Form einer Mittelung wie oben beschrieben, eingerichtet ist. Die Auswerteeinrichtung kann weiter zum Verwerfen von Bildern und/oder Tiefeninformationen, welche vorbestimmte Kriterien erfüllen, eingerichtet sein. Depth information detection device and / or the recording of the images with the 2D camera to repeat several times, wherein the evaluation device then for combining a plurality of acquired depth information and / or a plurality of recorded images, for example in the form of an averaging as described above, is set up. The evaluation device can also be set up to discard images and / or depth information that fulfill predetermined criteria.
Die Auswerteeinrichtung kann weiter eingerichtet sein, ein Modell des Kopfes auf Basis der Tiefeninformationen z.B. auf einer Anzeige darzustellen, und ein virtuelles Anpassen einer Brille an das Modell zu ermöglichen, wobei die Auswerteeinrichtung eingerichtet ist, die Parameter zur Brillenanpassung auf Basis des virtuellen Anpassens zu bestimmen. The evaluation device can be further set up, a model of the head based on the depth information, e.g. to display on a display, and to allow a virtual fit glasses to the model, wherein the evaluation device is adapted to determine the parameters for adjusting the glasses based on the virtual fitting.
Die vorliegende Erfindung wird im Folgenden anhand verschiedener Ausführungsbeispiele unter Bezugnahme auf die beigefügten Zeichnungen noch näher erläutert. Es zeigen: The present invention will be explained in more detail below with reference to various embodiments with reference to the accompanying drawings. Show it:
Fig. 1 eine schematische Darstellung einer Vorrichtung gemäß eines Ausführungsbeispiels, 1 is a schematic representation of a device according to an embodiment,
Fig. 2 eine schematische Darstellung einer Vorrichtung gemäß eines weiteren Fig. 2 is a schematic representation of a device according to another
Ausführungsbeispiels, Embodiment,
Fig. 3 eine schematische Darstellung einer Vorrichtung gemäß eines weiteren Fig. 3 is a schematic representation of a device according to another
Ausführungsbeispiels, Fig. 4 eine schematische Darstellung zur Erläuterung von in den Ausführungsbeispielen einsetzbaren Tiefensensoren, 4 shows a schematic illustration for explaining depth sensors which can be used in the exemplary embodiments,
Fig. 5 eine Darstellung eines Schnitts durch ein Tiefenprofil, wie es bei manchen Fig. 5 is an illustration of a section through a depth profile, as in some
Ausführungsbeispielen erzeugbar ist, Embodiments can be generated,
Fig. 6A-6F Darstellungen zur Erläuterung von Parametern zur Brillenanpassung, FIGS. 6A-6F are explanatory views of spectacle fitting parameters;
Fig. 7 ein Flussdiagramm zur Veranschaulichung eines Verfahrens gemäß eines 7 is a flowchart for illustrating a method according to FIG
Ausführungsbeispiels, Embodiment,
Fig. 8 ein Flussdiagramm zur Veranschaulichung eines Verfahrens gemäß eines weiteren Ausführungsbeispiels, und 8 is a flow chart illustrating a method according to another embodiment, and
Figuren 9 und 10 Darstellungen zur Erläuterung einer Rektifizierung, wie sie bei manchen Ausführungsbeispielen durchgeführt wird. Im Folgenden werden verschiedene Ausführungsbeispiele der vorliegenden Erfindung detailliert erläutert. Figures 9 and 10 are illustrations for explaining a rectification, as performed in some embodiments. In the following, various embodiments of the present invention will be explained in detail.
In Fig. 1 ist eine Vorrichtung zur Bestimmung von Parametern zur Anpassung einer Brille (d.h. Parameter, welche zur Anpassung einer Brille an einen Kopf einer Person herangezogen werden können) gemäß einem Ausführungsbeispiel schematisch dargestellt. Die Vorrichtung der Fig. 1 umfasst eine Tiefeninformationserfassungseinrichtung 12 zum Bestimmen einer Tiefeninformation bezüglich eines Kopfes 10 eines Benutzers, insbesondere zur Bestimmung einer Tiefeninformation hinsichtlich einer Augenpartie, das heißt eines Bereichs um die Augen des Benutzers, hiervon. Der Benutzer in Fig. 1 trägt dabei eine Brille 1 1 , bezüglich der ebenfalls eine Tiefeninformation bestimmt werden kann. In Fig. 1, a device for determining parameters for fitting a pair of spectacles (i.e., parameters that can be used to adapt a pair of spectacles to a person's head) is shown schematically in accordance with one embodiment. The device of FIG. 1 comprises a depth information acquisition device 12 for determining a depth information relating to a head 10 of a user, in particular for determining a depth information relating to an eye area, that is, an area around the user's eyes, thereof. The user in Fig. 1 wears a pair of glasses 1 1, with respect to which also a depth information can be determined.
Eine Tiefeninformation im Sinne der vorliegenden Anmeldung umfasst dabei zumindest eine Information hinsichtlich eines Abstandes des Benutzers, insbesondere des Kopfes 10 des Benutzers und/oder der von dem Benutzer getragenen Brille 1 1 , zu der A depth information in the sense of the present application comprises at least one piece of information regarding a distance of the user, in particular the head 10 of the user and / or the spectacles 1 1 worn by the user, to the user
Tiefeninformationserfassungseinrichtung 12. Beispielsweise kann als Abstand die Länge der strichpunktierten Linie 14 der Fig. 1 bestimmt werden. Es können Abstände jedoch auch zu anderen und/oder mehreren Stellen des Kopfes 10 gemessen werden. Bei einem bevorzugten Ausführungsbeispiel wird dabei gleichsam eine Tiefenkarte erstellt, beispielsweise indem der oben beschriebene Abstand für eine Vielzahl von Punkten des Kopfes 10, insbesondere der Augenpartie, und/oder eine Vielzahl von Punkten der Brille 1 1 bestimmt wird. Durch die von der Tiefeninformationserfassungseinrichtung 12 bereitgestellte Tiefeninformation liegt also eine Information über einen derartigen Abstand vor. Diese Information kann im Folgenden benutzt werden, um unabhängig von der genauen Position des Kopfes 10 Parameter zur Anpassung der Brille 1 1 an den Kopf 10 des Benutzers, beispielsweise zur Zentrierung von Brillengläsern, zu bestimmen. Beispiele für geeigneter Tiefeninformationserfassungseinrichtungen sowie für zu bestimmende Parameter werden später noch näher erläutert.  Depth information detection device 12. For example, as a distance, the length of the dotted line 14 of FIG. 1 can be determined. However, distances can also be measured to other and / or multiple locations of the head 10. In a preferred embodiment, a depth map is created as it were, for example, by determining the above-described distance for a plurality of points of the head 10, in particular the eye area, and / or a plurality of points of the spectacles 1 1. The depth information provided by the depth information acquisition device 12 thus provides information about such a distance. This information can be used below to determine regardless of the exact position of the head 10 parameters for adjusting the glasses 1 1 to the head 10 of the user, for example, for centering eyeglass lenses. Examples of suitable depth information detection devices as well as parameters to be determined will be explained later in more detail.
Die Vorrichtung der Fig. 1 umfasst weiter eine Auswerteeinrichtung 13, welche die The apparatus of Fig. 1 further comprises an evaluation device 13, which the
Tiefeninformation von der Tiefeninformationserfassungseinrichtung 12 empfängt und basierend auf der Tiefeninformation Parameter zur Anpassung der Brille 1 1 bestimmt. Die Depth information from the depth information detection device 12 receives and based on the depth information determines parameters for adjusting the glasses 1 1. The
Auswerteeinrichtung 13 kann dabei beispielsweise als entsprechend programmierte Evaluation device 13 can be programmed, for example, as appropriately programmed
Recheneinrichtung, beispielsweise in Form eines Computers, ausgeführt sein. Es können jedoch auch fest verdrahtete Hardwarekomponenten wie anwendungsspezifische integrierte Schaltkreise (ASICs) verwendet werden. Die Auswerteeinrichtung 13 kann in für sich genommen herkömmlicher Weise Ausgabemittel wie eine Anzeige, Lautsprecher, Schnittstellen zur Ausgabe von Signalen und dergleichen umfassen, um die bestimmten Parameter zur Brillenanpassung auszugeben oder an andere Einrichtungen weiterzuleiten. Details der Bestimmung der Parameter zur Brillenanpassung werden ebenfalls später noch näher erläutert. Es ist zu bemerken, dass die Tiefeninformationserfassungseinrichtung 12 und die Computing device, for example in the form of a computer to be executed. However, hardwired hardware components such as application specific integrated circuits (ASICs) may also be used. The evaluation device 13 can in a conventional conventional manner output means such as a display, speakers, interfaces for outputting signals and the like, for outputting or transmitting the particular parameters for spectacle fitting to other means. Details of the determination of the glasses adjustment parameters will also be explained later. It is to be noted that the depth information detecting device 12 and the
Auswerteeinrichtung 13 der erfindungsgemäßen Vorrichtung örtlich nahe zusammen angeordnet sein können, beispielsweise in einem gemeinsamen Gehäuse oder auch in getrennten Gehäusen, die in einer festen räumlichen Anordnung zueinander stehen. Ebenso kann jedoch die Auswerteeinrichtung 13 auch räumlich getrennt von der Evaluation device 13 of the device according to the invention can be arranged locally close together, for example in a common housing or in separate housings, which are in a fixed spatial arrangement to each other. Likewise, however, the evaluation device 13 also spatially separated from the
Tiefeninformationserfassungseinrichtung 12 angeordnet sein, und die von der Depth information detection device 12 may be arranged, and that of the
Tiefeninformationserfassungseinrichtung 12 ermittelte Tiefeninformation kann in herkömmlicher Weise drahtlos, drahtgebunden oder auch über optische Leitungen wie Glasfasern zu der Auswerteeinrichtung 13 übertragen werden. Eine derartige Übertragung ist beispielsweise auch über Netzwerke wie das Internet möglich, so dass im Wesentlichen beliebige Entfernungen zwischen der Tiefeninformationserfassungseinrichtung 12 und der Auswerteeinrichtung 13 möglich sind.  Depth information detection device 12 determined depth information can be transmitted in a conventional manner wireless, wired or via optical lines such as glass fibers to the evaluation device 13. Such a transmission is also possible, for example, via networks such as the Internet, so that essentially arbitrary distances between the depth information acquisition device 12 and the evaluation device 13 are possible.
Bevor verschiedene Details von Tiefeninformationserfassungseinrichtungen, Parametern zur Brillenanpassung sowie der Bestimmung derselben näher erläutert werden, werden nunmehr zunächst unter Bezugnahme auf die Figuren 2 und 3 Variationen und Erweiterungen desBefore various details of depth information acquisition devices, parameters for adjusting glasses and the determination of the same are explained in more detail, variations and extensions of the invention will now be described first with reference to FIGS. 2 and 3
Ausführungsbeispiels der Fig. 1 diskutiert. Zur Vermeidung von Wiederholungen tragen in der folgenden Beschreibung gleiche oder einander entsprechende Elemente in verschiedenen Figuren die gleichen Bezugszeichen und werden nicht mehrmals detailliert erläutert. Bei der Vorrichtung der Fig. 2 ist die Vorrichtung der Fig. 1 um eine Kamera 20 erweitert, welche ein zweidimensionales Bild, beispielsweise ein Schwarz-Weiß-Bild oder ein Farbbild, des Kopfes 10 oder eines Teils hiervon, beispielsweise einer Augenpartie, aufnimmt. Die Kamera 20 kann in herkömmlicher Weise mit einem Objektiv und einem Bildsensor Embodiment of Fig. 1 discussed. To avoid repetition in the following description, the same or corresponding elements in different figures bear the same reference numerals and are not explained in detail several times. In the apparatus of Fig. 2, the apparatus of Fig. 1 is extended by a camera 20 which receives a two-dimensional image, such as a black-and-white image or a color image, of the head 10 or a portion thereof, such as an eye area. The camera 20 may be conventionally provided with a lens and an image sensor
implementiert sein. be implemented.
Das so aufgenommene Bild wird ebenfalls der Auswerteeinrichtung 13 zugeführt. Die The image recorded in this way is likewise supplied to the evaluation device 13. The
Auswerteeinrichtung 13 bestimmt in diesem Fall die Parameter zur Brillenanpassung zusätzlich auf Basis des aufgenommen Bildes. Die Auswerteeinrichtung 13 kann dabei zudem die Kamera 20 und die Tiefeninformationserfassungseinrichtung 12 so steuern, dass das Bild gleichzeitig zu der Tiefeninformation aufgenommen wird. Zur Auswertung kann dann bei einer Variante beispielsweise das von der Kamera 20 aufgenommene Bild auf Basis der von der Tiefeninformationserfassungseinrichtung 12 erfassten Tiefeninformation skaliert werden. Beispielsweise kann eine derartige Skalierung mit einem höheren Skalierungsfaktor erfolgen, wenn die Tiefeninformation angibt, dass der Kopf 10 weiter von der Tiefeninformationserfassungseinrichtung 12 entfernt ist, und mit einem kleineren Skalierungsfaktor skaliert werden, wenn der Kopf näher an der Evaluation device 13 additionally determines the parameters for adjusting the glasses on the basis of the recorded image in this case. The evaluation device 13 can also control the camera 20 and the depth information acquisition device 12 in such a way that the image is recorded simultaneously with the depth information. For evaluation, in one variant, for example, the image taken by the camera 20 can then be scaled on the basis of the depth information acquired by the depth information acquisition device 12. For example, such scaling may be done with a higher scaling factor if the depth information indicates that the head 10 is farther from the depth information acquisition device 12, and scaled with a smaller scale factor as the head gets closer to the depth
Tiefeninformationserfassungseinrichtung 12 ist. Der Skalierungsfaktor kann eine Vergrößerung oder eine Verkleinerung angeben.  Depth information detection device 12 is. The scaling factor may indicate an increase or a decrease.
Auf diese Weise kann insbesondere das Bild derart skaliert werden, dass dem Bild In this way, in particular the image can be scaled such that the image
Abmessungen des Kopfes 10 hinreichend genau entnehmbar sind, welche den zu Dimensions of the head 10 are sufficiently accurately removed, which the
bestimmenden Parametern zur Brillenanpassung entsprechen können oder auf Basis derer solche Parameter zur Brillenanpassung bestimmbar sind.„Hinreichend genau" bedeutet, dass letztendlich die Parameter zur Brillenanpassung mit einer zur Brillenanpassung gewünschten oder erforderlichen Genauigkeit bestimmbar sind. Anstatt einer Skalierung des Bildes können bei einer anderen Variante ebenso auch entsprechende Abmessungen dem aufgenommen Bild entnommen werden, und die entnommenen Abmessungen können dann auf Basis der Tiefeninformation skaliert werden. In Fig. 2 ist die Kamera 20 getrennt von der Tiefeninformationserfassungseinrichtung 12 dargestellt. Die Kamera 20 kann jedoch bei manchen Ausführungsbeispielen auch gleichzeitig als Teil der Tiefeninformationserfassungseinrichtung 12 dienen, beispielsweise im Falle einer Streifenprojektion oder einer Lasertriangulation, wie dies später näher erläutert werden wird. "Sufficiently accurate" means that ultimately the parameters for adjusting the glasses can be determined with an accuracy desired or required for adjusting the spectacle .. Instead of scaling the image, in another variant, the parameters can be determined however, corresponding dimensions may also be taken from the captured image, and the dimensions taken may then be scaled based on the depth information In Figure 2, the camera 20 is shown separate from the depth information acquisition device 12. However, in some embodiments, the camera 20 may also be part of it serve the depth information detection device 12, for example in the case of a stripe projection or a laser triangulation, as will be explained in more detail later.
Bei dem Ausführungsbeispiel der Fig. 2 arbeiten die Kamera 20 und die In the embodiment of FIG. 2, the camera 20 and the work
Tiefeninformationserfassungseinrichtung 12 wie dargestellt unter verschiedenen Winkeln und mit verschiedenen optischen Achsen. Bei anderen Ausführungsbeispielen ist ein Aufbau bereitgestellt, bei welchem Tiefeninformationserfassungseinrichtung 12 und Kamera 20 den Kopf 10 koaxial betrachten. Ein entsprechendes Ausführungsbeispiel ist in der Fig. 3 dargestellt. Depth information detection device 12 as shown at different angles and with different optical axes. In other embodiments, a structure is provided in which depth information detector 12 and camera 20 view the head 10 coaxially. A corresponding embodiment is shown in FIG. 3.
In Fig. 3 sind wie bei dem Ausführungsbeispiel der Fig. 3 eine In Fig. 3 are as in the embodiment of FIG. 3 a
Tiefeninformationserfassungseinrichtung 12 und eine Kamera 20 bereitgestellt. Bei dem Ausführungsbeispiel der Fig. 3 ist zusätzlich ein Strahlteiler 30 bereitgestellt, welcher die optische Achse der Kamera 20 mit der optischen Achse 12 der  Depth information detection device 12 and a camera 20 is provided. In the embodiment of Fig. 3, a beam splitter 30 is additionally provided, which the optical axis of the camera 20 with the optical axis 12 of
Tiefeninformationserfassungseinrichtung 12 vereint, so dass der Kopf 10 auf einer einzigen optischen Achse betrachtet, bzw. vermessen wird. Auch hierdurch ist ein kompakter Aufbau möglich. Zudem werden Parallaxenfehler und dergleichen zwischen der Tiefeninformation und dem von der Kamera 20 aufgenommen Bild vermieden oder verringert. Bei dem Depth information detection device 12 combines so that the head 10 on a single considered optical axis, or is measured. This also makes a compact design possible. In addition, parallax errors and the like between the depth information and the image taken by the camera 20 are avoided or reduced. In which
Ausführungsbeispiel der Fig. 2 können derartige Parallaxenfehler und dergleichen hingegen rechnerisch durch die Auswerteeinrichtung 13 eliminiert werden. Embodiment of Fig. 2, such parallax errors and the like, however, can be eliminated by calculation by the evaluation device 13.
Der Strahlteiler 30 kann ein wellenlängenselektiver Strahlteiler sein. Bei derartigen The beam splitter 30 may be a wavelength-selective beam splitter. In such
Ausführungsbeispielen kann beispielsweise die Kamera 20 sichtbares Licht aufnehmen, während die Tiefeninformationserfassungseinrichtung 12 auf Basis von Infrarotstrahlung arbeitet. Alternativ ist der Strahlteiler 30 nicht wellenlängenselektiv, und die Kamera 20 und die Tiefeninformationserfassungseinrichtung 12 benutzen zumindest teilweise einen gleichen Teil des Spektrums. For example, the camera 20 may record visible light while the depth information detector 12 operates based on infrared radiation. Alternatively, the beam splitter 30 is not wavelength selective, and the camera 20 and depth information detector 12 at least partially share an equal portion of the spectrum.
Auch wenn es in Fig. 3 nicht explizit dargestellt ist, können auch hier die von der Even if it is not shown explicitly in FIG
Tiefeninformationserfassungseinrichtung 12 bereitgestellte Tiefeninformation sowie von derDepth information detection device 12 provided depth information and of the
Kamera 20 bereitgestellte ein oder mehrere Bilder von einer Auswerteeinrichtung wie der für die Auswerteeinrichtung 13 der Fig. 1 erläutert ausgewertet werden, um Parameter zur Camera 20 provided one or more images from an evaluation as the evaluated for the evaluation device 13 of FIG. 1 are evaluated to parameters for
Brillenanpassung zu erhalten. Als nächstes werden verschiedene Arten von Tiefeninformationserfassungseinrichtungen näher erläutert, welche benutzt werden können, um die Tiefeninformation zu erhalten. To obtain eyeglass adjustment. Next, various kinds of depth information detecting means which can be used to obtain the depth information will be explained in more detail.
Beispielsweise können Laufzeit- oder Phasenlagemessungen zum Gewinnen der For example, runtime or phase position measurements can be used to obtain the
Tiefeninformation verwendet werden. Bei derartigen Verfahren wird wie weiter oben erläutert im Wesentlichen ein Signal von der Tiefeninformationserfassungseinrichtung zu dem Kopf geschickt und ein von dem Kopf reflektiertes Signal erfasst. Mit entsprechenden Depth information can be used. In such methods, as explained above, substantially a signal from the depth information detecting means is sent to the head and a signal reflected from the head is detected. With appropriate
Laufzeitsensoren können dabei Objekte wie der Kopf 10 mit einer hohen Bildwiederholrate von beispielsweise im Bereich von 30 bis 60 Hz und hoher Auflösung abgetastet werden, so dass die Tiefeninformation mit Bildwiederholraten vergleichbar einer Videorate zur Verfügung gestellt werden können. Dabei kann ein gesamtes Tiefenprofil des Kopfes erstellt werden. Auf Basis derartiger Tiefenprofile kann wie in dem Ausführungsbeispiel der Fig. 1 Parameter zur In this case, time-of-flight sensors can scan objects such as the head 10 with a high refresh rate of, for example, in the range from 30 to 60 Hz and high resolution, so that the depth information can be made available with refresh rates comparable to a video rate. In this case, an entire depth profile of the head can be created. On the basis of such depth profiles, as in the embodiment of FIG. 1, parameters for
Brillenanpassung grundsätzlich auch ohne die Verwendung einer weiteren Kamera wie der Kamera 20 bestimmt werden. Die Fig. 4 zeigt schematisch eine Tiefeninformationserfassungseinrichtung, welche als schematische Darstellung für verschiedene verwendbare Arten von Tiefeninformationserfassungseinrichtungen dienen kann. Im Falle eines Laufzeitsensors bezeichnet 40 eine Signalquelle, beispielsweise eine modulierte Lichtquelle, und 41 bezeichnet einen entsprechenden Sensor zum Detektieren des empfangen Lichts, beispielsweise eine Laufzeitkamera wie oben beschrieben. Glasses adjustment can be determined in principle without the use of another camera such as the camera 20. FIG. 4 schematically shows a depth information acquisition device, which serves as a schematic illustration for various types of use that can be used Depth information detection devices can serve. In the case of a runtime sensor, 40 denotes a signal source, for example, a modulated light source, and 41 denotes a corresponding sensor for detecting the received light, for example, a runtime camera as described above.
Wie ebenfalls bereits erläutert ist verwendet eine weitere Art von As already explained, another type of
Tiefeninformationserfassungseinrichtungen, welche bei Ausführungsbeispielen verwendet werden können, eine Abstandsmessung mittels optischer Triangulation, beispielsweise  Depth information detection devices that can be used in embodiments, a distance measurement by means of optical triangulation, for example
Lasertriangulation. Im Falle der Fig. 4 kann bei einer derartigen Triangulationseinrichtung beispielsweise 40 eine Lichtquelle und 41 eine Kamera bezeichnen, welche in einem definierten Winkel zu einander stehen. Laser triangulation. In the case of FIG. 4, in such a triangulation device, for example, 40 may denote a light source and 41 a camera which are at a defined angle to one another.
Eine weitere Möglichkeit zur Implementierung der Tiefeninformationserfassungseinrichtung 12 ist die Verwendung einer Lichtfeldkamera. Another possibility for implementing the depth information acquisition device 12 is the use of a light field camera.
Weitere Möglichkeiten zur Implementierung einer Tiefeninformationseinrichtung ist wie beschrieben ein kamerabasierter Infrarottiefensensor, bei welchem ein Infrarotmuster von einem Projektionssystem erzeugt wird und durch Aufnahme der so beleuchteten Szenerie mit einer Infrarotkamera die Tiefe der Objekte in der Szenerie ermittelt werden. Wie ebenfalls beschrieben kann auch eine Streifen projektion mit sichtbarem Licht verwendet werden. Further possibilities for implementing a depth information device, as described, are a camera-based infrared depth sensor in which an infrared pattern is generated by a projection system and the depth of the objects in the scene is determined by recording the scene thus illuminated with an infrared camera. As also described, a stripe projection with visible light can also be used.
Im Falle der Fig. 4 wäre hier dann beispielsweise das Element 40 das Projektionssystem, und das Element 41 die Kamera, welche mit der Kamera 20 identisch oder von dieser verschieden sein kann. Bei einem weiteren Ausführungsbeispiel kann wie beschrieben die Tiefeninformation auch durch ein Stereokameraverfahren mittels Triangulation bestimmt werden. Dabei werden zwei oder mehr Kameras unter einem oder mehreren vorgegebenen Winkel angeordnet. Im Falle der Fig. 4 ist bei einer derartigen Tiefeninformationserfassungseinrichtung beispielsweise 40 eine erste Kamera und 41 eine zweite Kamera.  In the case of FIG. 4, for example, the element 40 would then be the projection system, and the element 41 the camera, which may be identical to or different from the camera 20. In another embodiment, as described, the depth information may also be determined by a stereo camera method using triangulation. In this case, two or more cameras are arranged at one or more predetermined angles. In the case of FIG. 4, in such a depth information acquisition device, for example, 40 is a first camera and 41 is a second camera.
Durch die Verwendung derartiger Tiefensensoren wie oben beschrieben kann bei By using such depth sensors as described above can at
entsprechenden hochauflösenden Tiefensensoren ein Profil des Kopfes 10 und somit die dreidimensionale Oberfläche des Kopfes 10 basierend auf der corresponding high-resolution depth sensors a profile of the head 10 and thus the three-dimensional surface of the head 10 based on the
Tiefeninformationserfassungseinrichtung allein modelliert werden. Als Beispiel zeigt Fig. 5 eine schematische Darstellung eines Schnittes 50 durch ein derartiges 3D-Modell, bei welchem auch ein Schnitt 51 durch die Brille sichtbar ist. Der Schnitt 50 in dem Beispiel der Fig. 5 ist durch ein Auge 52 des Benutzers gelegt, verläuft also nicht durch die Gesichtsmitte des Probanden, sondern durch die Mitte des Auges. Mit 10 ist das Profil des Kopfes wie in den Figuren 1 -4 dargestellt bezeichnet, wobei dieses Profil durch die Mittelachse des Kopfes verläuft und sich somit von dem Profil 50 unterscheidet. Depth information acquisition device alone to be modeled. As an example, Fig. 5 shows a schematic representation of a section 50 through such a 3D model, in which a section 51 is visible through the glasses. The section 50 in the example of FIG. 5 is indicated by a The user's eye 52 does not pass through the center of the subject's face but through the center of the eye. 10, the profile of the head is indicated as shown in Figures 1 -4, wherein this profile extends through the central axis of the head and thus differs from the profile 50.
Auf Basis der Tiefeninformation, welche einen Abstand zwischen der On the basis of the depth information, which is a distance between the
Tiefeninformationserfassungseinrichtung und dem Kopf 10 beinhaltet, kann ein größengetreues derartiges dreidimensionales Profil des Kopfes 10 erstellt werden, mit entsprechenden  Depth information detection device and the head 10 includes, a true to scale such three-dimensional profile of the head 10 can be created with appropriate
Schnitten 50 an den verschieden Stellen. Hieraus können wiederum Parameter zur Cut 50 in different places. This can in turn parameters for
Brillenanpassung wie Zentrierparameter bestimmt werden. Dies wird im Folgenden näher erläutert. Eyeglass adjustment as Zentrierparameter be determined. This will be explained in more detail below.
Zunächst werden dabei unter Bezugnahme auf die Figuren 6A bis 6F verschieden bestimmbare Parameter zur Brillenanpassung, insbesondere Zentrierparameter, erläutert. Dabei zeigen die Figuren 6A bis 6F jeweils Ansichten einer Brille, gegebenenfalls zusammen mit einer Teilansicht eines Kopfes, um verschiedene Parameter zu erläutern. First, different parameters for spectacle fitting, in particular centering parameters, will be explained with reference to FIGS. 6A to 6F. FIGS. 6A to 6F respectively show views of spectacles, possibly together with a partial view of a head, in order to explain various parameters.
Die Figur 6A zeigt den monokularen Pupillenabstand beim Blick ins Unendliche. Ein Pfeil 60A zeigt den monokularen Pupillenabstand für ein linkes Auge, gemessen als Abstand zwischen Pupille und einer Mittelachse 61 des Kopfes. Ein Pfeil 60B zeigt den monokularen FIG. 6A shows the monocular pupil distance when looking at infinity. An arrow 60A shows the monocular pupillary distance for a left eye, measured as the distance between the pupil and a central axis 61 of the head. An arrow 60B shows the monocular
Pupillenabstand für das rechte Auge. Die Werte für das linke und rechte Auge sind in den meisten Fällen unterschiedlich.  Pupil distance for the right eye. The values for the left and right eyes are different in most cases.
Fig. 6B veranschaulicht die Durchblickhöhe, gemessen wiederum bei Blick ins Unendliche, wobei die Augendrehpunktforderung erfüllt wurde. Die Augendrehpunktforderung bedeutet, dass die optische Achse des Brillenglases durch den Augendrehpunkt verlaufen sollte. Die optische Achse verläuft dabei durch den optischen Mittelpunkt des Brillenglases und steht im Allgemeinen senkrecht auf dem Brillenglas. Dies kann unerwünschte prismatische Effekte gering halten, wenn durch Augenbewegungen durch unterschiedliche Teile eines Brillenglases gesehen wird. Die Durchblickhöhe gibt den Abstand zwischen der Pupille und einem unteren Rand des Brillenglases an. Ein Pfeil 62A zeigt die Durchblickhöhe für das rechte Auge, und ein Pfeil 62B zeigt die Durchblickhöhe für das linke Auge. Fig. 6B illustrates the view height measured again when looking at infinity, satisfying the eye pivot requirement. The eye pivot requirement means that the optical axis of the lens should pass through the eye pivot. The optical axis runs through the optical center of the spectacle lens and is generally perpendicular to the spectacle lens. This can minimize undesirable prismatic effects when viewed through eye movements through different parts of a spectacle lens. The see-through height indicates the distance between the pupil and a lower edge of the spectacle lens. An arrow 62A shows the viewing height for the right eye, and an arrow 62B shows the viewing height for the left eye.
In Fig. 6C ist mit 63 der Hornhautscheitelabstand bezeichnet, welcher in der Regel von der Rückseite des Brillenglases der Brille bis zu einer Scheitelebene der Augenhornhaut gemessen wird. In Fig. 6D bezeichnet ein Winkel 64 die Vorneigung der Fassung, im Wesentlichen eine Neigung der Brille zur Senkrechten. Diese hängt wie auch die in Fig. 6B gezeigt Durchblickhöhe auch von der Kopfhaltung der Person ab. In Fig. 6C, 63 denotes the corneal vertex distance, which is usually measured from the back of the spectacle lens of the spectacles to a peak plane of the cornea. In Fig. 6D, an angle 64 denotes the front inclination of the socket, essentially one Inclination of the glasses to the vertical. As well as the viewing height shown in FIG. 6B, this also depends on the person's head posture.
In Fig. 6E bezeichnet ein Winkel 65 den Fassungsscheibenwinkel, ein Winkel, unter dem das Brillenglas verglichen mit einer„ebenen" Brille steht. In Fig. 6F sind schließlich noch In Fig. 6E, an angle 65 designates the lens angle, an angle at which the lens is compared with a "plane" lens, and finally Fig. 6F
verschiedene Maße der Brillenfassung selbst angegeben. Mit 67 ist die Scheibenbreite bezeichnet, mit 68 die Scheibenhöhe. Scheibenbreite und Scheibenhöhe sind gemeinsam mit Pupillenabstand und Durchblickshöhe wichtige Informationen zur Bestimmung eines benötigten Glasdurchmessers eines Brillenglases. Mit 66 ist zudem die Brückenweite der Brillenfassung bezeichnet. various dimensions of the spectacle frame itself indicated. 67 is the disk width, with 68 the disk height. Disc width and disc height together with pupil distance and viewing height are important information for determining a required glass diameter of a spectacle lens. With 66 also the bridge width of the spectacle frame is designated.
Die Figuren 6A bis 6F zeigen einige Paramater zur Brillenanpassung, welche mittels den dargestellten Vorrichtungen ermittelt werden können. Es können auch weitere Parameter zur Brillenanpassung ermittelt werden. Beispielsweise gibt es für die Zentrierung von Brillengläsern für Nahsehen (beispielsweise für ein Lesebrille oder Arbeitsbrille) und für die Zentrierung von Gleitsichtgläsern gegebenenfalls weitere Parameter, welche ermittelt werden können. Hierzu gehört beispielsweise der„Nahpupillenabstand", welcher nicht bei Blickrichtung unendlich wie oben beschrieben, sondern beim Blick auf eine nahe vor dem Kopf befindliches Objekt gemessen wird. FIGS. 6A to 6F show some spectacle fitting parameters which can be determined by means of the illustrated devices. Other parameters for adjusting the glasses can also be determined. For example, there are optionally further parameters which can be determined for the centering of spectacle lenses for near vision (for example for reading glasses or working glasses) and for the centering of progressive lenses. This includes, for example, the "near-pupil distance", which is not measured infinitely in the direction of view as described above, but when looking at an object located near the head.
Neben den in Fig. 6F dargestellten Parametern zur Brillenanpassung können auch andere geometrische Informationen über die Brillenfassung bestimmt werden. Diese geometrischen Informationen können für die Auswahl geeigneter Brillengläser wichtig sein, da sie zum Beispiel bei Brillengläsern mit positiver optischer Wirkung einen Einfluss auf die Glasdicke haben. In addition to the parameters for spectacle fitting shown in FIG. 6F, other geometric information about the spectacle frame can also be determined. This geometrical information can be important for the selection of suitable spectacle lenses, since they have an influence on the glass thickness, for example, in spectacles having a positive optical effect.
Zumindest bei der Zentrierung von Einstärkengläsern wird in der Regel die At least in the centering of single vision lenses is usually the
Augendrehpunktforderung erfüllt. Bei der Höhenzentrierungen, das heißt der Ausrichtung der optischen Achse des Brillenglases in Höhenrichtung, muss dabei die Kopfhaltung berücksichtigt werden, da durch die Neigung des Kopfes die Messung der Durchblickhöhe und auch die Vorneigung der Fassung beeinflusst wird. Um dies zu berücksichtigen, kann beispielsweise bei einer Messung durch die diskutierte Vorrichtung durch die Kopfhaltung der Person dafür gesorgt werden, dass die Ebene der Brillenfassung senkrecht auf dem Boden steht, was auch als Nullblickrichtung bezeichnet wird. In diesem Zustand wird dann mit der diskutierten Eye pivot request fulfilled. In the case of the centering of the height, that is to say the alignment of the optical axis of the spectacle lens in the vertical direction, the head posture must be taken into account, since the inclination of the head influences the measurement of the viewing height and also the pretilt of the frame. In order to take this into account, it can be ensured, for example during a measurement by the discussed device by the person's head posture, that the plane of the spectacle frame is perpendicular to the ground, which is also referred to as the zero-sighting direction. In this state is then discussed with the
Vorrichtung die Lage der Pupillen in der Ebene des Brillenglases bestimmt. Ebenfalls ist es möglich, die Durchblickhöhe bei natürlicher Kopf- und Körperhaltung zu ermitteln, wobei die zu untersuchende Person meist in 8 bis 10 m auf den Boden schaut, was auch als Hauptblickrichtung bezeichnet wird. Die Kopfhaltung kann, wie im Folgenden näher erläutert werden wird, auch mittels der erfindungsgemäßen Vorrichtung bestimmt werden, und die zu untersuchende Person kann gegebenenfalls zur Änderung der Kopfhaltung angewiesen werden. Device determines the position of the pupils in the plane of the spectacle lens. It is also possible to determine the viewing height in natural head and body posture, the person to be examined usually looks in 8 to 10 m on the ground, which also as Main direction is called. The head posture can, as will be explained in more detail below, also be determined by means of the device according to the invention, and the person to be examined may, if necessary, be instructed to change the head posture.
Im Folgenden werden nun die Herangehensweisen zur Ermittlung von Zentrierparametern auf Basis der Tiefeninformation und gegebenenfalls auf Basis eines Kamerabildes (beispielsweise mit der Kamera 20 der vorstehenden Ausführungsbeispiele aufgenommen) unter Bezugnahme auf die Figuren 7 bis 10 näher erläutert. The approaches for determining centering parameters on the basis of the depth information and optionally on the basis of a camera image (for example taken with the camera 20 of the preceding exemplary embodiments) will now be explained in more detail below with reference to FIGS. 7 to 10.
Die Fig. 7 zeigt ein Flussdiagramm, welches eine Übersicht über ein Verfahren gemäß einem Ausführungsbeispiel zum Bestimmen Parameter zur Brillenanpassung gibt. Die Fig. 8 zeigt dann ein detailliertes Flussdiagramm, in welchem verschiedene mögliche Details eines derartigen Verfahrens dargestellt werden. Während die Verfahren als Abfolge von Schritten dargestellt werden, ist die dargestellte Reihenfolge nicht als einschränkend auszulegen. FIG. 7 shows a flowchart which gives an overview of a method according to an exemplary embodiment for determining parameters for adjusting glasses. FIG. 8 then shows a detailed flow chart in which various possible details of such a method are illustrated. While the methods are presented as a series of steps, the illustrated order should not be construed as limiting.
Insbesondere können manche Schritte auch in anderer Reihenfolge ausgeführt werden oder ein oder mehrere Schritte können auch parallel ausgeführt werden. Beispielsweise können eine Tiefeninformation und ein Bild gleichzeitig mit einer Tiefeninformationserfassungseinrichtung wie der Tiefeninformationserfassungseinrichtung 12 der Fig. 2 und einer Kamera wie der Kamera 20 der Fig. 2 oder auch mit einer Lichtfeldkamera wie oben erläutert aufgenommen werden.  In particular, some steps may also be performed in a different order, or one or more steps may be executed in parallel. For example, a depth information and an image may be recorded simultaneously with a depth information acquisition device such as the depth information acquisition device 12 of FIG. 2 and a camera such as the camera 20 of FIG. 2 or also with a light field camera as explained above.
In einem Schritt 70 in Fig. 7 wird eine Tiefeninformation erfasst, welche einen Abstand eines Kopfes zu einer zur Erfassung der Tiefeninformation benutzten Einrichtung umfassen. Dies kann mit Tiefeninformationserfassungseinrichtungen 12 wie oben diskutiert geschehen. In a step 70 in FIG. 7, depth information is detected which includes a distance of a head from a device used to acquire the depth information. This can be done with depth information detectors 12 as discussed above.
In Schritt 71 wird zudem ein Bild (auch als Übersichtsbild bezeichnet) zumindest eines interessierenden Bereichs, beispielsweise einer Augenpartie, eines Kopfes erfasst. Schritt 71 ist optional, und bei manchen Ausführungsbeispielen wird nur die Tiefeninformation in Schritt 70 erfasst. In Schritt 72 werden dann Parameter, welche zur Brillenanpassung, insbesondere Brillenglaszentrierung, dienen, bestimmt. Beispielsweise können ein oder mehrere der unter Bezugnahme auf die Figuren 6A bis 6F diskutierten Parameter bestimmt werden. In step 71, an image (also referred to as an overview image) of at least one region of interest, for example an eye area, of a head is additionally detected. Step 71 is optional, and in some embodiments only the depth information is captured in step 70. In step 72, parameters which are used for spectacle fitting, in particular spectacle lens centering, are then determined. For example, one or more of the parameters discussed with reference to FIGS. 6A-6F may be determined.
Hierzu wird bei manchen Ausführungsbeispielen aus der erfassten Tiefeninformation ein größengetreues 3D-Modell des Kopfes mit Brille erstellt, und die Parameter werden dann aus diesem 3D-Modell abgelesen. Zusätzlich kann, wenn ein Übersichtsbild erfasst wurde, das Übersichtsbild zu dem 3D-Modell registriert werden, beispielsweise benutzt werden, um dem 3D-Modell Textur zu geben. Dies erleichtert die Erkennung einzelner Merkmale wie For this purpose, in some embodiments, a true-to-scale 3D model of the head with glasses is created from the acquired depth information, and the parameters are then read from this 3D model. In addition, when an overview image has been acquired, the Overview image to be registered to the 3D model, for example, used to give the 3D model texture. This facilitates the detection of individual features such as
beispielsweise der Augen. Herangehensweisen zur Erkennung derartiger Merkmale wie der Augen, der Brillenfassung und dergleichen, welche zur Bestimmung der Parameter benötigt werden, sind für sich genommen beispielsweise aus der herkömmlichen Fotographie bekannt, wo verschiedene Gesichtserkennungsalgorithmen zum Einsatz kommen. Der Abstand des Kopfes zu der zur Tiefeninformationserfassungseinrichtung kann dabei benutzt werden, um auch bei einer Positionierung des Kopfes, die nicht einer vorgegebenen Sollposition entspricht, eine korrekte Größe des 3D-Modells zu gewährleisten. for example, the eyes. Approaches for detecting such features as the eyes, the eyeglass frame, and the like, which are needed to determine the parameters, are known per se, for example, from conventional photography where various face recognition algorithms are used. The distance of the head to the depth information detection device can be used to ensure a correct size of the 3D model even with a positioning of the head, which does not correspond to a predetermined target position.
Bei anderen Ausführungsbeispielen kann die Tiefeninformation auch nur einen einzigen Abstand zwischen dem Kopf und der Vorrichtung an einem einzigen Punkt umfassen, und zusätzlich wird ein Übersichtsbild aufgenommen. Eine derartige Tiefeninformation kann mit einem relativ einfachen Tiefensensor bereitgestellt werden, der beispielsweise nicht scannend ausgeführt sein muss. In diesem Fall wird der so ermittelte Abstand benutzt, das Bild mit einem Skalierungsfaktor zu skalieren, welcher vom Abstand abhängig ist und welcher sich im In other embodiments, the depth information may include only a single distance between the head and the device at a single point, and in addition an overview image is taken. Such depth information can be provided with a relatively simple depth sensor which, for example, need not be designed to be scanned. In this case, the distance thus obtained is used to scale the image with a scaling factor which depends on the distance and which is in the
Wesentlichen direkt aus dem Strahlensatz ergibt. So kann das aufgenommene Bild auf eine korrekte Größe skaliert werden, und es können Maße wie die in den Figuren 6A bis 6F dargestellten Maße dem so skalierten Übersichtsbild entnommen werden. Dabei ist je nach Aufnahmerichtung für ein einzelnes Bild nur die Bestimmung mancher Parameter nötig. Aus einer Frontalaufnahme können beispielsweise Parameter der Figuren 6A, 6B und 6F bestimmt werden, währen für die Parameter der Figuren 6C und 6D ein Bild von der Seite angefertigt werden muss. Je nach zu bestimmenden Parametern werden also in einem derartigen Fall gegebenenfalls mehrere Bildaufnahmen durchgeführt. Essentially directly from the set of rays. Thus, the recorded image can be scaled to a correct size, and dimensions such as the dimensions shown in FIGS. 6A to 6F can be taken from the thus scaled overview image. Depending on the direction in which a single picture is taken, only the determination of some parameters is necessary. For example, from a frontal image, parameters of FIGS. 6A, 6B, and 6F may be determined, while for the parameters of FIGS. 6C and 6D, an image must be taken from the page. Depending on the parameters to be determined, a number of image recordings may therefore be carried out in such a case.
Bei manchen Ausführungsbeispielen wird also durch die Tiefeninformation ausgeglichen, dass sich die Größe des Kopfes der zu untersuchenden Person bzw. relevanter Teile hiervon in Abhängigkeit eines Abstandes des Kopfes zu der verwendeten Kamera ändert. Beispielsweise erscheint der Kopf größer wenn er sich näher bei der Kamera befindet, und kleiner, wenn er sich entfernt von der Kamera befindet. In some embodiments, the depth information thus compensates for the size of the head of the person to be examined or relevant parts thereof changing as a function of a distance of the head from the camera used. For example, the head appears larger when it is closer to the camera and smaller when it is away from the camera.
Nunmehr werden unter Bezugnahme auf die Fig. 8 verschiedene Details und Erweiterungen des Verfahrens der Fig. 7 diskutiert. Während die Fig. 8 und die folgenden Beschreibung verschiedene mögliche Erweiterungen und Details in Kombination erläutern, ist anzumerken, dass diese auch unabhängig voneinander realisiert werden können, also so nicht Referring now to FIG. 8, various details and extensions of the method of FIG. 7 will be discussed. While FIG. 8 and the following description explain various possible extensions and details in combination, it should be noted that these can also be implemented independently of each other, that is not so
notwendigerweise in Kombination miteinander implementiert sein müssen. In Schritt 80 wird Tiefeninformation wiederholt erfasst, und optional wird in Schritt 81 Bildinformation wiederholt aufgenommen. Es werden also die Schritte 70 und 71 der Fig. 7 wiederholt durchgeführt. Wie bereits erläutert bieten manche Tiefensensoren hohe necessarily be implemented in combination with each other. In step 80, depth information is repeatedly detected, and optionally image information is repeatedly recorded in step 81. Thus, steps 70 and 71 of FIG. 7 are repeatedly performed. As already explained, some depth sensors offer high levels
Wiederholraten im Bereich von 30 Hz oder 60 Hz, also im Bereich typischer Videoraten, und auch Kameras können Bildinformationen mit derartigen Raten aufnehmen. Es sind jedoch auch geringere Wiederholraten möglich. Diese Messungen bei 80 und 81 können mit entsprechend ausgestatteten Rechnern in Echtzeit zumindest hinsichtlich mancher Gesichtspunkte analysiert werden. Refresh rates in the range of 30 Hz or 60 Hz, ie in the range of typical video rates, and also cameras can record image information with such rates. However, lower repetition rates are possible. These measurements at 80 and 81 can be analyzed with appropriately equipped computers in real time, at least in some aspects.
Wie bereits erläutert kann aus derartig wiederholt erfassten Tiefeninformationen dann ein Modell des Kopfes erstellt und auf einer Anzeige angezeigt werden, was beispielsweise ein Anpassen einer virtuellen Brillenfassung wie beschrieben ermöglicht. Auch können die As already explained, from such repeatedly acquired depth information, a model of the head can then be created and displayed on a display, which makes it possible, for example, to adapt a virtual spectacle frame as described. Also, the
Tiefeninformationen wie beschrieben zur Ausrichtung des Kopfes verwendet werden. Depth information as described can be used to align the head.
In Schritt 82 können dann aus den bei 80 und 81 durchgeführten Messungen geeignete In step 82, then from the measurements made at 80 and 81, appropriate
Messungen ausgewählt werden. So können unvorteilhafte Bilder oder Tiefeninformationen für die spätere Bestimmung der Parameter zur Brillenanpassung ausgeschlossen werden. Measurements are selected. Thus unfavorable images or depth information for the later determination of the parameters for spectacle fitting can be excluded.
Beispielsweise lässt sich die Position der Pupille, welche beispielsweise für die in Fig. 6A und 6B dargestellten Parameter benötigt wird, bei geschlossenem Augenlid nur ungenau For example, the position of the pupil, which is required for example for the parameters shown in FIGS. 6A and 6B, can only be inaccurate with the eyelid closed
bestimmen. Daher kann mit entsprechender Detektion von Gesichtsmerkmalen (in der englischsprachigen Literatur auch als Facial Feature Detection oder Landmark Detection bezeichnet) bestimmt werden, bei welchen Bildern oder in welchen Tiefeninformationen ein oder beide Augenlider geschlossen sind, und entsprechende Daten können für die determine. Therefore, with appropriate detection of facial features (also referred to in the English literature as facial feature detection or Landmark Detection) can be determined in which images or in which depth information one or both eyelids are closed, and corresponding data can for the
nachfolgenden Bearbeitungsschritte verworfen werden. Zu bemerken ist dabei, dass die Erfassung der Tiefeninformationen und das Aufnehmen der Bilder bei 80 und 81 auch synchronisiert erfolgen kann, so dass beispielsweise jeweils einem Bild ein Satz von subsequent processing steps are discarded. It should be noted that the acquisition of the depth information and the taking of the images at 80 and 81 can also be synchronized, so that, for example, one image each of a set of
Tiefeninformation zugeordnet ist. Wird in dem Bild beispielsweise festgestellt, dass das Depth information is assigned. For example, if it is found in the image that the
Augenlid geschlossen ist, kann auch gleich die zugehörige Tiefeninformation verworfen werden. Umgekehrt kann, wenn beispielsweise in der Tiefeninformation festgestellt wird, dass der Kopf soweit gedreht war, dass eine vernünftige Bestimmung von gewünschten Parametern zur Brillenanpassung nur schwer oder nicht möglich ist, auch das entsprechende Bild verworfen werden. Als nächstes kann in Schritt 83 eine Kombination über mehrere Messungen und/oder eine Registrierung von Daten zueinander vorgenommen werden. Unter Registrierung wird dabei allgemein ein Vorgang verstanden, in dem mehrere Datensätze zur Deckung gebracht bzw. an einander ausgerichtet werden. Bei sogenannten rigiden Registrierungsverfahren wird dabei die Topographie der einzelnen Messungen nicht verändert, d.h. Abstände und Winkel bleiben erhalten, sondern die einzelnen Messungen werden nur durch Rotation und Translation zur Deckung miteinander gebracht. Eyelid is closed, also the corresponding depth information can be discarded. Conversely, if, for example, it is found in the depth information that the head has been turned so far that a reasonable determination of desired parameters for adjusting the glasses is difficult or impossible, the corresponding image can also be discarded. Next, in step 83, a combination of multiple measurements and / or registration of data with each other may be made. Under registration will be included generally understood a process in which several records are brought to line or aligned. In the case of so-called rigid registration methods, the topography of the individual measurements is not changed, ie distances and angles are retained, but the individual measurements are brought into coincidence only by rotation and translation.
Auf diese Weise können mehrere hintereinander erfolgte Messungen (in den Schritten 80 und 81 der Fig. 8) nach der Registrierung kombiniert werden, was insbesondere hinsichtlich den Tiefeninformationen eine Verbesserung der Genauigkeit bringen kann. Die Parameter für die Registrierung können durch herkömmliche Optimierungsverfahren bestimmt werden, beispielsweise dem ICP (Iterative Closest Point) Algorithmus für Daten ohne Textur, homographische Abschätzung, beispielweise mittels eines DLT-Algorithmus für Bilddaten (direkte lineare Transformation; beispielsweise für mit einer Kamera aufgenommene Bilddaten). Derartige rigide Registrierungsverfahren zur Kombination können jedoch bei veränderlichen Gesichtsbereichen problematisch sein (beispielsweise sich bewegende Augenlider), da hier eine unvorteilhafte Registrierung insbesondere für Darstellungszwecke auf einer Anzeige oder dergleichen erfolgen kann. Bei bevorzugten Ausführungsbeispielen werden daher für derartige Bildbereich oder Bereiche der Tiefeninformationen, in denen typischerweise schnelle In this way, a plurality of successive measurements (in steps 80 and 81 of FIG. 8) can be combined after registration, which can bring about an improvement in accuracy, in particular with regard to the depth information. The parameters for the registration can be determined by conventional optimization methods, for example the ICP (Iterative Closest Point) algorithm for data without texture, homographic estimation, for example by means of a DLT algorithm for image data (direct linear transformation, for example for image data taken with a camera). , However, such rigid registration methods for combination can be problematic with variable facial areas (for example, moving eyelids) because unfavorable registration can occur here, in particular for display purposes on a display or the like. In preferred embodiments, therefore, such image areas or regions of depth information, where typically fast
Veränderungen auftreten können (insbesondere Augenlid, Augenbewegungen und dergleichen) nicht rigide Verfahren verwendet. Changes may occur (especially eyelid, eye movements and the like) are not used rigid method.
In Schritt 84 wird dann eine Kopfhaltung bei den Messungen der Schritte 80 und 81 ermittelt. Diese Kopfhaltung kann dann verwendet werden, um aufgenommene Bilder zu rektifizieren, oder beispielsweise auch auf andere Weise bei der Bestimmung der Parameter zur In step 84, a head posture is then determined in the measurements of steps 80 and 81. This head pose can then be used to rectify captured images, or otherwise, for example, in determining the parameters for
Brillenanpassung zur Korrektur eingesetzt werden. Eyeglass adjustment can be used for correction.
Bei einem Ausführungsbeispiel wird dabei mit Registrierverfahren wie den oben hinsichtlich Schritt 83 erläuterten der Kopf der aufgenommenen Person mit einem Standardkopf registriert (das heißt einem 3D-Modell eines Kopfes einer als Standard festgelegten Form) und dieIn one embodiment, with registration methods such as those discussed above with respect to step 83, the head of the person being photographed is registered with a standard head (that is, a 3D model of a head of a standard set shape) and the
Haltung dieses Standardkopfes ist in Bezug auf ein Referenzkoordinatensystem der Vorrichtung bestimmt. Dieses Referenzkoordinatensystem wird auch als Weltkoordinatensystem bestimmt. Hierzu wird bei einem Ausführungsbeispiel die rigide Transformation bestimmt, welche den Standardkopf gegeben in seinem eigenen Bezugssystem in einen Standardkopf in dem Posture of this standard head is determined with respect to a reference coordinate system of the device. This reference coordinate system is also determined as a world coordinate system. For this purpose, in one embodiment, the rigid transformation is determined, which gives the standard head in its own frame of reference in a standard head in the
Weltkoordinatensystem transformiert, so dass eine bestmögliche Übereinstimmung mit den Messdaten der Tiefeninformationserfassungseinrichtung erreicht wird. Diese Transformation kann beispielsweise mit Hilfe der folgenden sechs Parameter beschrieben werden: Translation in x-, in y- und in z-Richtung, und Rotation um x-, y- und z-Achse (zum Beispiel nach der Eulerschen Formel), wobei x, y und z Achsen eines Weltkoordinatensystems beschreiben. Als Beispiel ist in Fig. 9 ein Kopf 10 dargestellt, welcher um einen Winkel 90 um die z-Achse (senkrecht zur Bildebene) rotiert ist. Mit 91 ist die Mittelachse eines gerade ausgerichteten Kopfes bezeichnet, mit 92 die Mittelachse des Kopfes 10. Hier würde also durch die World coordinate system transformed so that a best possible match with the measurement data of the depth information detection device is achieved. This transformation can be described, for example, by means of the following six parameters: translation in the x, y and z directions, and rotation about the x, y and z axes (for example according to the Euler formula), where x, y and z describe axes of a world coordinate system. As an example, a head 10 is shown in Fig. 9, which is rotated by an angle 90 about the z-axis (perpendicular to the image plane). With 91, the center axis of a straight-headed head is designated, with 92 the central axis of the head 10. Here would therefore by the
Registrierung der Winkel 90 bestimmt. In entsprechender Weise können auch Translationen oder Rotationen des Kopfes 10 um x- und/oder y-Achse bestimmt werden. Registration of angles 90 is determined. In a corresponding manner, translations or rotations of the head 10 about the x and / or y axis can also be determined.
Die so mit diesen sechs Parametern beschriebene Kopfhaltung wird dann in dem unten beschrieben Schritt 85 verwendet, um eine eventuelle Schräglage der Blickrichtung zu der Vorrichtung hin zu korrigieren. Auf diese Weise kann zum Beispiel ein Durchblickspunkt, das heißt der Schnittpunkt der jeweiligen Sehachse der Person mit einer Ebene des Brillenglases, korrigiert werden. The head pose thus described with these six parameters is then used in step 85 described below to correct for any skew of the line of sight to the device. In this way, for example, a visual point, that is to say the point of intersection of the respective visual axis of the person with a plane of the spectacle lens, can be corrected.
Eine Möglichkeit, im Voraus eine Korrektur anzuwenden, ist die Rektifizierung des One way to apply a correction in advance is to rectify the
Kamerabildes (beispielsweise der in Schritt 81 aufgenommen Bilder) in Schritt 84, um die Kamerabilder auf eine einer Ausrichtung des Gesichts entsprechende Bildebene umzurechnen. Dies wird unter Bezugnahme auf die Fig. 10 erläutert. In Fig. 10 ist wiederum der Kopf 10 in der Lage der Fig. 9 dargestellt. Mit 100 ist ein optisches Zentrum einer verwendeten Kamera (beispielsweise der Kamera 20 der oben beschriebenen Ausführungsbeispiele) gezeigt. Mit 101 ist eine Bildebene der Zentralprojektion von dem Zentrum 100 bezeichnet, beispielsweise eine Bildebene, entsprechend der das Bild von der Kamera 20 aufgenommen wird. Durch die Schräglage des Kopfes 10 ergeben sich dabei Verzerrungen beispielsweise zwischen linker und rechter Gesichtshälfte. Bei der Rektifizierung werden die Punkte der Bildebene 101 im Wesentlichen entsprechend der eingezeichneten Lichtstrahlen in eine Bildebene 102 umgerechnet, was zur Entzerrung führt, und das so entzerrte Bild ist der Ausrichtung des Gesichts angepasst, da die Bildebene 102 der Ausrichtung besser entspricht als die Bildebene 101 . Aus derartigen entzerrten (und gegebenenfalls wie oben diskutiert skalierten) Bildern können dann Parameter zur Brillenanpassung entnommen werden. Camera image (eg, the images taken in step 81) in step 84 to convert the camera images to an image plane corresponding to an orientation of the face. This will be explained with reference to FIG. 10. In Fig. 10, in turn, the head 10 in the position of Fig. 9 is shown. Indicated at 100 is an optical center of a camera used (for example, the camera 20 of the above-described embodiments). 101 denotes an image plane of the central projection from the center 100, for example an image plane, according to which the image is taken by the camera 20. Due to the inclination of the head 10, distortions arise, for example, between the left and right half of the face. In the rectification, the points of the image plane 101 are converted into an image plane 102 substantially in accordance with the light rays drawn, resulting in equalization, and the thus corrected image is adjusted to the orientation of the face because the image plane 102 is closer to the orientation than the image plane 101 , From such equalized (and optionally scaled as discussed above) parameters for spectacle fitting can then be taken.
In Schritt 85 wird dann wie bereits oben angedeutet eine Analyse der Tiefeninformationen und/oder Bilder, welche in den Schritten 82 bis 84 vorbearbeitet wurden, durchgeführt, um die Parameter zur Brillenanpassung zu bestimmen. Dies kann wie bereits erläutert im Wesentlichen mit Algorithmen zur Detektion von Gesichtsmerkmalen bzw. anderen Merkmalen (beispielsweise der Brillenfassung) erfolgen, und entsprechende Parameter zur Brillenanpassung können dann durch entsprechende Abstands- oder Winkelmessungen in den Daten, beispielsweise in einem auf Basis der Tiefeninformationen erstellten 3D-Modell und/oder in auf Basis der Tiefeninformationen skalierten und/oder rektifizierten Bilddaten, durchgeführt werden. Auf diese Weise können die Parameter zur Brillenanpassung, insbesondere die Zentrierparameter, auf einfache Weise bestimmt werden. In step 85, as already indicated above, an analysis of the depth information and / or images, which have been preprocessed in steps 82 to 84, is carried out in order to determine the parameters for adjusting the glasses. This can, as already explained, essentially with algorithms for the detection of facial features or other features (for example the spectacle frame), and corresponding parameters for spectacle fitting can then be determined by corresponding distance or angle measurements in the data, for example in a 3D model created on the basis of the depth information and / or in image data scaled and / or rectified on the basis of the depth information. be performed. In this way, the parameters for adjusting the glasses, in particular the centering parameters, can be determined in a simple manner.
Wie bereits erläutert können bei manchen Ausführungsbeispielen auch nur manche der in Fig. 8 erläuterten Schritte durchgeführt werden. Beispielsweise können die Schritte 83 und 84 auch unabhängig voneinander durchgeführt werden, und auch durchgeführt werden, wenn nur eine Messung von Tiefeninformation erfolgt oder nur eine Messung von Tiefeninformation und eine Aufnahme eines Bildes. In anderen Worten kann die mehrfache Bildaufnahme und Mittelung auch weggelassen werden. As already explained, in some embodiments, only some of the steps explained in FIG. 8 can also be carried out. For example, steps 83 and 84 may also be performed independently of each other, and may also be performed when only one measurement of depth information is made or only one measurement of depth information and one image taken. In other words, the multiple image acquisition and averaging can also be omitted.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
10 Kopf 10 head
1 1 Brille  1 1 glasses
12 Tiefeninformationserfassungseinrichtung 12 depth information detecting device
13 Auswerteeinrichtung 13 evaluation device
20 Kamera  20 camera
30 Strahlteiler  30 beam splitter
40 Komponente  40 component
41 Komponente  41 component
50 Tiefenprofil  50 depth profile
51 Brille  51 glasses
52 Auge  52 eye
10 Kopfprofil  10 head profile
60A,60B Pupillenabstand  60A, 60B pupillary distance
61 Mittellinie  61 midline
62A, 62 B Durchblickshöhe  62A, 62 B Clearance height
63 Hornhautscheitelabstand  63 Corneal vertex distance
64 Vorneigung  64 forward inclination
65 Fassungsscheibenwinkel  65 frame angle
66 Brückenweite  66 Bridge width
67 Scheibenbreite  67 disc width
68 Scheibenhöhe  68 disc height
70-72; 80-85 Verfahrensschritte  70-72; 80-85 process steps
90 Winkel  90 angles
91 Mittelachse  91 central axis
92 Mittelachse  92 central axis
100 Optisches Kamerazentrum  100 optical camera center
101 Bildebene  101 image plane
102 Rektifizierte Bildebene  102 Rectified image plane

Claims

Patentansprüche  claims
Verfahren zur Bestimmung von Parametern zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68), umfassend: A method of determining spectacle fitting parameters (60A, 60B, 62A, 62B, 63-68) comprising:
Erfassen (70; 80) einer Tiefeninformation hinsichtlich eines Kopfes (10) eines Benutzers, wobei die Tiefeninformation einen Abstand (14) zwischen dem Kopf (10) des Benutzers und einer zum Erfassen benutzten Vorrichtung umfassen, und Bestimmen (72; 85) von Parametern zur Brillenanpassung (60A, 60B, 62A, 62B, 63- 68) auf Basis der Tiefeninformation,  Detecting (70; 80) depth information regarding a user's head (10), the depth information comprising a distance (14) between the user's head (10) and a device used for detection, and determining (72; 85) parameters for spectacle fitting (60A, 60B, 62A, 62B, 63-68) based on the depth information,
Aufnehmen (71 ; 81 ) eines 2D-Bildes des Kopfes,  Taking (71; 81) a 2D image of the head,
wobei das Aufnehmen (71 ; 81 ) des 2D-Bildes und das Erfassen (70; 80) der  wherein the taking (71; 81) of the 2D image and the detection (70; 80) of the
Tiefeninformation über eine gemeinsame optische Achse erfolgt.  Depth information on a common optical axis takes place.
Verfahren nach Anspruch 1 , wobei das Verfahren weiter ein Bestimmen einer The method of claim 1, wherein the method further comprises determining a
Kopfposition des Kopfes (10) umfasst, wobei das Bestimmen der Parameter zur Head position of the head (10), wherein determining the parameters for
Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis der bestimmten Kopfposition erfolgt. Spectacle fitting (60A, 60B, 62A, 62B, 63-68) is based on the determined head position.
Verfahren nach Anspruch 1 oder 2, wobei das Bestimmen der Parameter zur The method of claim 1 or 2, wherein determining the parameters for
Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis des aufgenommenen 2D-Bildes erfolgt. Spectacle fitting (60A, 60B, 62A, 62B, 63-68) is performed based on the captured 2D image.
Verfahren nach Anspruch 3, umfassend ein Skalieren des 2D-Bildes auf Basis der Tiefeninformation und/oder ein Skalieren von auf Basis des 2D-Bildes bestimmter Parameter zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis der The method of claim 3, comprising scaling the 2D image based on the depth information and / or scaling spectacle fitting parameters (60A, 60B, 62A, 62B, 63-68) based on the 2D image based on
Tiefeninformation. Depth information.
Verfahren nach Anspruch 3 oder 4, weiter umfassend ein Rektifizieren (84) des 2D-Bildes auf Basis der Tiefeninformation. The method of claim 3 or 4, further comprising rectifying (84) the 2D image based on the depth information.
Verfahren nach einem der Ansprüche 1 bis 5, wobei das Erfassen der Tiefeninformation (80) und/oder das Aufnehmen des 2D-Bildes (81 ) mehrmals wiederholt wird, wobei das Verfahren weiter ein Mitteln über mehrere erfasste Tiefeninformationen und/oder über mehrere aufgenommene Bilder umfasst. Verfahren nach Anspruch 6, weiter umfassend ein Verwerfen (82) von 2D-Bildern und/oder Tiefeninformationen, welche vorbestimmte Kriterien erfüllen. The method of any one of claims 1 to 5, wherein acquiring the depth information (80) and / or taking the 2D image (81) is repeated a plurality of times, the method further comprising averaging over a plurality of acquired depth information and / or over a plurality of acquired images includes. The method of claim 6, further comprising discarding (82) 2D images and / or depth information that satisfy predetermined criteria.
Verfahren nach einem der Ansprüche 1 bis 7, weiter umfassend: Method according to one of claims 1 to 7, further comprising:
Darstellen eines Modells des Kopfes (10) auf Basis der Tiefeninformation, und  Depicting a model of the head (10) based on the depth information, and
virtuelles Anpassen einer Brille an das Modell, Virtual fitting of glasses to the model,
wobei die Parameter zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis des virtuellen Anpassens bestimmt werden. wherein the eyeglass fitting parameters (60A, 60B, 62A, 62B, 63-68) are determined based on the virtual fitting.
Vorrichtung zur Bestimmung von Parametern zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68), umfassend: Apparatus for determining spectacle fitting parameters (60A, 60B, 62A, 62B, 63-68) comprising:
eine Tiefeninformationserfassungseinrichtung (12; 40, 41 ) zur Erfassung einer Tiefeninformation bezüglich eines Kopfes (10) eines Benutzers, wobei die  depth information detecting means (12; 40,41) for detecting depth information with respect to a head (10) of a user, the
Tiefeninformation zumindest einen Abstand (14) des Kopfes (10) zu der Vorrichtung umfassen, Depth information comprise at least a distance (14) of the head (10) to the device,
eine Auswerteeinrichtung (13), welche eingerichtet ist, die Parameter zur  an evaluation device (13) which is set up the parameters for
Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis der erfassten Tiefeninformation zu bestimmen, und Determine eyeglass fitting (60A, 60B, 62A, 62B, 63-68) based on the acquired depth information, and
eine 2D-Kamera (20) zum Aufnehmen eines Bildes zumindest eines Teils des Kopfes (10), a 2D camera (20) for taking an image of at least a part of the head (10),
wobei die Vorrichtung derart eingerichtet ist, dass die wherein the device is arranged such that the
Tiefeninformationserfassungseinrichtung (12) und die 2D-Kamera (20) den Kopf (10) über eine gemeinsame optische Achse erfassen.  Depth information detection device (12) and the 2D camera (20) detect the head (10) via a common optical axis.
Vorrichtung nach Anspruch 9, wobei die Tiefeninformationserfassungseinrichtung (12) eine Lichtfeldkamera umfasst. Apparatus according to claim 9, wherein the depth information detecting means (12) comprises a light field camera.
Vorrichtung nach einem der Ansprüche 9 oder 10, wobei die Device according to one of claims 9 or 10, wherein the
Tiefeninformationserfassungseinrichtung (12; 40, 41 ) auf Basis von Infrarotstrahlung arbeitet. Depth information detecting means (12; 40, 41) based on infrared radiation operates.
Vorrichtung nach einem der Ansprüche 9 bis 1 1 , wobei die Device according to one of claims 9 to 11, wherein the
Tiefeninformationserfassungseinrichtung (12; 40, 41 ) eingerichtet ist, ein Tiefenprofil eines interessierenden Bereichs des Kopfes (10) zu erfassen, und wobei die Auswerteeinrichtung (13) eingerichtet ist, ein dreidimensionales Modell des Depth information detection means (12; 40,41) is arranged to detect a depth profile of a region of interest of the head (10), and wherein the Evaluation device (13) is set up, a three-dimensional model of
interessierenden Bereichs anzuzeigen. indicate the area of interest.
Vorrichtung nach einem der Ansprüche 9 bis 12, wobei die Device according to one of claims 9 to 12, wherein the
Tiefeninformationserfassungseinrichtung (12; 40, 41 ) eine auf Laufzeitmessungen und/oder Phasenmessungen und/oder Triangulation und/oder und/oder Musterprojektion und/oder Stereobildaufnahme beruhende Einrichtung umfasst. Depth information detection device (12; 40, 41) comprises a device based on transit time measurements and / or phase measurements and / or triangulation and / or and / or pattern projection and / or stereo image recording.
Verfahren zur Bestimmung von Parametern zur Brillenanpassung (60A, 60B, 62A, 62B,8), umfassend: A method of determining spectacle fitting parameters (60A, 60B, 62A, 62B, 8) comprising:
Erfassen (70; 80) einer Tiefeninformation hinsichtlich eines Kopfes (10) eines Benutzers, wobei die Tiefeninformation einen Abstand (14) zwischen dem Kopf (10) des Benutzers und einer zum Erfassen benutzten Vorrichtung umfassen, und Bestimmen (72; 85) von Parametern zur Brillenanpassung (60A, 60B, 62A, 62B, 63- 68) auf Basis der Tiefeninformation, und  Detecting (70; 80) depth information regarding a user's head (10), the depth information comprising a distance (14) between the user's head (10) and a device used for detection, and determining (72; 85) parameters for spectacle fitting (60A, 60B, 62A, 62B, 63-68) based on depth information, and
Darstellen eines Modells des Kopfes (10) auf Basis der Tiefeninformation, und virtuelles Anpassen einer Brille an das Modell,  Depicting a model of the head (10) based on the depth information, and virtually fitting glasses to the model,
wobei die Parameter zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis des virtuellen Anpassens bestimmt werden.  wherein the eyeglass fitting parameters (60A, 60B, 62A, 62B, 63-68) are determined based on the virtual fitting.
Verfahren nach Anspruch 14, wobei das Verfahren weiter ein Bestimmen einer The method of claim 14, wherein the method further comprises determining a
Kopfposition des Kopfes (10) umfasst, wobei das Bestimmen der Parameter zur Head position of the head (10), wherein determining the parameters for
Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis der bestimmten Kopfposition erfolgt. Spectacle fitting (60A, 60B, 62A, 62B, 63-68) is based on the determined head position.
Verfahren nach Anspruch 14 oder 15, weiter umfassend Aufnehmen (71 ; 81 ) eines Bildes des Kopfes (10) , wobei das Bestimmen der Parameter zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis des aufgenommen Bildes erfolgt. The method of claim 14 or 15, further comprising capturing (71; 81) an image of the head (10), wherein determining the eyeglass fitting parameters (60A, 60B, 62A, 62B, 63-68) is based on the captured image.
Verfahren nach Anspruch 16, umfassend ein Skalieren des Bildes auf Basis der The method of claim 16, comprising scaling the image based on
Tiefeninformation und/oder ein Skalieren von auf Basis des Bildes bestimmter Parameter zur Brillenanpassung (60A, 60B, 62A, 62B, 63-68) auf Basis der Tiefeninformation. Depth information and / or scaling of spectacle fit parameters (60A, 60B, 62A, 62B, 63-68) based on the image based on the depth information.
Verfahren nach Anspruch 16 oder 17, weiter umfassend ein Rektifizieren (84) des Bildes auf Basis der Tiefeninformation. The method of claim 16 or 17, further comprising rectifying (84) the image based on the depth information.
19. Verfahren nach einem der Ansprüche 14 bis 18, wobei das Erfassen der Tiefeninformation (80) und/oder das Aufnehmen eines Bildes (81 )mehrmals wiederholt wird, wobei das Verfahren weiter ein Mitteln über mehrere erfasste Tiefeninformationen und/oder über mehrere aufgenommene Bilder umfasst. The method of any of claims 14 to 18, wherein acquiring the depth information (80) and / or taking an image (81) is repeated a plurality of times, the method further comprising averaging over a plurality of acquired depth information and / or over a plurality of acquired images includes.
20. Verfahren nach Anspruch 19, weiter umfassend ein Verwerfen (82) von Bildern und/oder Tiefeninformationen, welche vorbestimmte Kriterien erfüllen. The method of claim 19, further comprising discarding (82) images and / or depth information that satisfy predetermined criteria.
EP17715456.4A 2016-04-04 2017-04-03 Method and device for determining parameters for spectacle fitting Withdrawn EP3440501A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016106121.2A DE102016106121A1 (en) 2016-04-04 2016-04-04 Method and device for determining parameters for spectacle fitting
PCT/EP2017/057880 WO2017174525A1 (en) 2016-04-04 2017-04-03 Method and device for determining parameters for spectacle fitting

Publications (1)

Publication Number Publication Date
EP3440501A1 true EP3440501A1 (en) 2019-02-13

Family

ID=58488998

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17715456.4A Withdrawn EP3440501A1 (en) 2016-04-04 2017-04-03 Method and device for determining parameters for spectacle fitting

Country Status (5)

Country Link
US (2) US11126016B2 (en)
EP (1) EP3440501A1 (en)
CN (1) CN108885359A (en)
DE (1) DE102016106121A1 (en)
WO (1) WO2017174525A1 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6099232B2 (en) 2013-08-22 2017-03-22 ビスポーク, インコーポレイテッド Method and system for creating custom products
AU2017274570B2 (en) * 2016-06-01 2022-02-03 Vidi Pty Ltd An optical measuring and scanning system and methods of use
CN106569339B (en) * 2016-11-08 2019-11-15 歌尔科技有限公司 The control method of VR helmet and VR helmet
EP3355214A1 (en) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Method, computing device and computer program for spectacle frame design
CN108732789A (en) * 2018-05-24 2018-11-02 重庆市爱成科技发展有限公司 A method of utilizing monocular interpupillary distance and simple eye pupil Gao Peijing
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
EP3702831A1 (en) * 2019-03-01 2020-09-02 Carl Zeiss Vision International GmbH Dataset for use in a method for manufacturing an ophthalmic lens
DE102019001762A1 (en) * 2019-03-12 2020-09-17 Rodenstock Gmbh Method, centering device and computer program product for measuring the distance of a user from a centering device
FR3097336B1 (en) * 2019-06-11 2023-10-20 Acep France Method for determining ophthalmic parameters by 3D mapping
CN110514414B (en) * 2019-08-28 2021-02-19 深圳立讯检测股份有限公司 Wearing stability detection device and method for glasses wearing equipment
EP3809371A1 (en) * 2019-10-15 2021-04-21 Carl Zeiss Vision International GmbH Method and device for determining a contour of a frame groove
TWI756600B (en) * 2019-12-12 2022-03-01 華碩電腦股份有限公司 Measuring method of lens frame wearing parameters and measuring equipment thereof
KR20230026421A (en) * 2020-06-17 2023-02-24 와비 파커 인코포레이티드 Pupil distance measurement system and method and its use
US11669880B2 (en) 2020-10-08 2023-06-06 Kiksar Technologies Private Limited System and method for customization of an eyewear
DE102020131580B3 (en) 2020-11-27 2022-04-14 Fielmann Ventures GmbH Computer-implemented method for preparing and placing a pair of glasses and for centering lenses of the pair of glasses
EP4006628A1 (en) 2020-11-27 2022-06-01 Fielmann Ventures GmbH Computer implemented method for providing and positioning of spectacles and for centration of the spectacle glasses
EP4086693A1 (en) * 2021-05-07 2022-11-09 Carl Zeiss Vision International GmbH Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer
FR3124069A1 (en) * 2021-06-18 2022-12-23 Acep France Process for trying on virtual glasses
DE102021213602B3 (en) * 2021-12-01 2023-04-13 Rodenstock Gmbh Device for determining a torsion of a spectacle frame
CN114355627B (en) * 2022-01-05 2023-06-30 北京蜂巢世纪科技有限公司 Method and device for adjusting length of glasses leg, electronic equipment and storage medium

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
DE10033983A1 (en) * 2000-04-27 2001-10-31 Frank Mothes Appliance for determining eyeglass centering data with the aid of video camera and computer
AU6056301A (en) * 2000-05-18 2001-11-26 Visionix Ltd. Spectacles fitting system and fitting methods useful therein
DE102005001874A1 (en) 2005-01-14 2006-09-07 Bayerische Motoren Werke Ag Device for operation of gas exchange lifting valve of internal combustion engine has crankshaft and intermediate shaft which is connected to clutch which connects drive mechanism with drive shaft
DE102005003699B4 (en) 2005-01-26 2018-07-05 Rodenstock Gmbh Apparatus and method for determining optical parameters of a user; A computer program product
EP2076814B1 (en) 2006-10-26 2013-04-17 Carl Zeiss Vision Australia Holdings Ltd. Ophthalmic lens dispensing method and system
GB0713461D0 (en) 2007-07-11 2007-08-22 Ct Meter Ltd Device and methods for obtaining measurements for spectacles fitting
DE102009004381B4 (en) 2008-01-10 2011-09-01 Rodenstock Gmbh Device, method and computer program product
US8103088B2 (en) 2009-03-20 2012-01-24 Cranial Technologies, Inc. Three-dimensional image capture system
US8803950B2 (en) 2009-08-24 2014-08-12 Samsung Electronics Co., Ltd. Three-dimensional face capturing apparatus and method and computer-readable medium thereof
DE102012007831B4 (en) * 2012-04-19 2016-02-04 Rodenstock Gmbh Apparatus and method for determining the individual parameters of a spectacle wearer
CN105026989B (en) * 2013-02-28 2017-06-30 Hoya株式会社 The design system of eyeglass, feed system, method for designing and manufacture method
US10268885B2 (en) 2013-04-15 2019-04-23 Microsoft Technology Licensing, Llc Extracting true color from a color and infrared sensor
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
JP2016529473A (en) * 2013-06-13 2016-09-23 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting at least one object
DE102014108353A1 (en) * 2013-06-13 2014-12-18 Werth Messtechnik Gmbh Method and device for the determination of geometries on measured objects by means of a combined sensor system
JP6099232B2 (en) * 2013-08-22 2017-03-22 ビスポーク, インコーポレイテッド Method and system for creating custom products
CN103971405A (en) 2014-05-06 2014-08-06 重庆大学 Method for three-dimensional reconstruction of laser speckle structured light and depth information
CA2948356C (en) 2014-05-08 2020-08-25 Glasses.Com Inc. Systems and methods for determining pupillary distance and scale
FR3021204A1 (en) * 2014-05-20 2015-11-27 Essilor Int METHOD FOR DETERMINING AT LEAST ONE PARAMETER OF VISUAL BEHAVIOR OF AN INDIVIDUAL
US20150347833A1 (en) 2014-06-03 2015-12-03 Mark Ries Robinson Noncontact Biometrics with Small Footprint
DE102014111431A1 (en) 2014-08-11 2016-02-11 Infineon Technologies Ag Flight time devices and a lighting source
CN104574504A (en) 2014-12-26 2015-04-29 上海沙斐网络科技有限公司 Virtual glasses try-on method and virtual glasses try-on device based on terminal
DE102015001874A1 (en) * 2015-02-13 2016-08-18 Rodenstock Gmbh Device and method for distance determination and / or centering using corneal reflections
CN104808797A (en) 2015-05-08 2015-07-29 杨晨 Convenient interactive eyeglass fitting method and device

Also Published As

Publication number Publication date
DE102016106121A1 (en) 2017-10-05
US20210165250A1 (en) 2021-06-03
US20190033624A1 (en) 2019-01-31
CN108885359A (en) 2018-11-23
WO2017174525A1 (en) 2017-10-12
US11867978B2 (en) 2024-01-09
US11126016B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
WO2017174525A1 (en) Method and device for determining parameters for spectacle fitting
EP3355104B1 (en) Method and device and computer program for determining a representation of a spectacle glass rim
US8366273B2 (en) Iris image definition estimation system using the astigmatism of the corneal reflection of a non-coaxial light source
DE102009010467A1 (en) Method and device for determining the position of the ocular pivot point
EP3210071B1 (en) Apparatus and method for determining optical parameters
EP3183616B1 (en) Determining user data based on image data of a selected eyeglass frame
EP3256036B1 (en) Device and method for distance determination and/or centering using corneal reflections
EP3635478B1 (en) Method, device and computer program for determining a close-up viewpoint
EP3195052B1 (en) Method for determining centering data of a test subject with measurement accuracy in order to adapt a pair of eyeglasses to the test subject, and immobile video centering system
WO2019002460A1 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
EP4143628B1 (en) Computer-implemented method for determining centre parameters for mobile terminals, mobile terminal and computer program
DE102010007922A1 (en) Device for determining distance between pupils of person, has image recording device receiving image of portion of face of person, and data processing device determining distance between pupils of person by triangulation method
DE102018100661A1 (en) Apparatus and method for determining an ophthalmic optical parameter set for a pair of spectacles
EP3938838A1 (en) Method, centering device and computer program product for measuring the distance of a user from a centering device

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20181029

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WEGENDT, HOLGER

Inventor name: SCHWARZ, OLIVER

Inventor name: GROMOTKA, JEREMIAS

Inventor name: BREUNINGER, TOBIAS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190320

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20200116