WO2017178092A1 - Verfahren zum bestimmen von optischen parametern eines probanden und computerprogrammprodukt zum durchführen des verfahrens - Google Patents

Verfahren zum bestimmen von optischen parametern eines probanden und computerprogrammprodukt zum durchführen des verfahrens Download PDF

Info

Publication number
WO2017178092A1
WO2017178092A1 PCT/EP2017/000338 EP2017000338W WO2017178092A1 WO 2017178092 A1 WO2017178092 A1 WO 2017178092A1 EP 2017000338 W EP2017000338 W EP 2017000338W WO 2017178092 A1 WO2017178092 A1 WO 2017178092A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical parameters
subject
user
image selection
Prior art date
Application number
PCT/EP2017/000338
Other languages
English (en)
French (fr)
Inventor
Peter Seitz
Markus Tiemann
Johannes SCHUBART
Leonhard Schmid
Original Assignee
Rodenstock Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rodenstock Gmbh filed Critical Rodenstock Gmbh
Priority to EP17713579.5A priority Critical patent/EP3443409A1/de
Publication of WO2017178092A1 publication Critical patent/WO2017178092A1/de
Priority to IL262300A priority patent/IL262300A/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils

Definitions

  • the present invention relates to a method for determining optical parameters of a subject and to a computer program product for carrying out the method.
  • a plurality of optical parameters must be determined. On the one hand to obtain the information required for Einschieifen and insertion into the socket, on the other hand to make optimizations in the lens itself and optimally adapted to the subsequent carrying position or position of use.
  • centering data such as the disc length, the disc height, the distance between the glasses of a pair of glasses, the decentration of a centering point and the centering required.
  • These and other optical parameters which are used in particular for the description of the position of use can, or are necessary, are in relevant standards, such as DIN EN ISO 13666, DIN EN ISO 58208, DIN EN ISO 8624 and DIN 5340 included and can be removed.
  • the determination of the individual parameters and the centering data can in principle be done manually by a variety of measuring devices, the value read in each case is immediately known.
  • each parameter to be determined manually requires a separate test procedure, which in turn can have a great dependence on the person performing the procedure as well as, in principle, significant errors, for example due to parallax.
  • video centering systems can be used to determine individual parameters and centering data, which determine individual or even all parameters by taking an image of a person with spectacle frame and with the aid of possibly further aids.
  • a video centering system is e.g. in EP 1 844 363 B1.
  • the video centering system described therein is based on a stereo camera system and a mirror image fixation, which allows excellent results with a single measurement pickup.
  • the result is determined by an evaluation.
  • the evaluation is a sequence of manual selection steps in which predetermined features are selected in the image.
  • the user or user of the video centering system can be supported by image processing. If all predetermined selection steps have been completed, the corresponding parameters are determined and displayed.
  • the accuracy is primarily defined by the measurement method.
  • the method used by Rodenstock on the basis of a stereo camera system and mirror-image fixation provides excellent results with a single measurement acquisition. Other methods suffer from inherent errors due to model assumptions or the loss of information through projection onto 2D. The duration of a measurement is influenced by various factors.
  • a first independent aspect for achieving the object relates to a method for determining optical parameters of a subject by means of a video centering system, comprising the steps:
  • the evaluation of the generated image data is a computer-aided automatic
  • the number of iteration steps performed in the iterative determination of the optical parameters depends on the number of manual image selection steps performed by the user.
  • a subject is, in particular, a spectacle wearer or a patient for whom a pair of spectacles is to be manufactured or adapted.
  • a user is understood to mean a person who operates the video centering system.
  • a user can e.g. be an optician or ophthalmologist. But it is also possible that the subject operates the Videozentriersystem itself and thus the subject and the user are the same person.
  • the generation of image data takes place in particular by recording digital images, preferably with the aid of a stereo camera system.
  • the image data or the digital images are preferably generated from at least two different recording directions.
  • the images can be recorded simultaneously with only one single camera in succession or with several, in particular two, cameras which are located at different locations.
  • two different picking directions mean that different image data are generated from overlapping partial areas of the head, preferably from one and the same partial area of the head, in particular that image data of identical partial areas of the user's head are generated under different perspective views , As a result, the same portion of the head will be the same but the image data is different.
  • Different recording directions can also be achieved, for example, by the image data being generated by at least two image recording devices or cameras, wherein effective optical axes of the at least two image recording devices are not parallel.
  • the image data or the digital images are generated with the aid of a stereoscopic image recording device.
  • the video centering system is preferably based on a stereoscopic image acquisition.
  • the image data includes digital stereoscopic images.
  • the captured images correspond to the generated image data.
  • the pupils of the subject and a spectacle frame edge or a spectacle lens edge are imaged, wherein in the generated image data, the pupils of the subject are bounded by the spectacle frame edge or the spectacle lens edge.
  • eyeglasses in the sense of the present description do not necessarily have to have spectacle lenses, but can merely be a spectacle frame Alternatively, the subject may wear a spectacle frame with associated spectacle lenses.
  • Automatic or machine image processing of the image data comprises, in particular, known pattern recognition algorithms with which certain elements or features of an image can be recognized and / or marked by software or computer assistance.
  • image processing includes algorithms that can be used to search for specific shapes, points and / or environments of points.
  • Computer-assisted automatic image processing preferably includes automatic detection of pupils Pupillenstoffigeen of the subject and an automatic detection of one or more frame edge points and / or lens edge points, such as an upper, lower, nasal or temporal frame edge point and / or Briilenglasrandddling, the glasses or spectacle frame of the subject.
  • evaluation data are preferably generated which comprise 3D data or spatial information in three-dimensional space of predetermined points of the system of the subject's head and the spectacles arranged thereon in the position of use.
  • the optical parameters are determined in particular on the basis of the generated evaluation data or the location information.
  • the evaluation data generated by means of the evaluation of the image data comprise location information for at least one of the following points:
  • the horizontal plane of the subject cuts both pupils of the subject and runs parallel to a predetermined zero line of sight of the subject;
  • dimensioning in box size is understood to mean the measuring system as described in the relevant standards, for example in DIN EN ISO 8624 and / or DIN EN ISO 13666 and / or DIN 58208 and / or DIN 5340 , Further, with regard to the case size and other conventional terms and parameters used, the book “The Optics of the Eye and the Visual Aids” by Dr. Ing. Roland Enders, 1995 Optical Publishing GmbH, Heidelberg, as well as the book “Optics and Technology of the Glasses” by Heinz Diepes and Ralf Blendowksi, 2002 Publisher Optician fürveröttingmaschine GmbH, Heidelberg, referenced. The standards as well as the named book represent an integral part of the disclosure of the present application for the definitions of terms.
  • the limits in the case of a dimension in box size include one eye or both eyes, which are furthest outside or inside and / or above or below lie. These detection points are conventionally determined by tangents to the spectacle frame or the respective areas of the spectacle frame assigned to the respective eyes (compare DIN 58 208, Figure 3).
  • the zero-sighting direction in the sense of this invention is a line of sight straight ahead with parallel fixing lines. In other words, it is a viewing direction defined by a position of the eye relative to the subject's head, the eyes looking at an object that is at eye level and located at an infinitely distant point. Consequently, the zero-sighting direction in the sense of this invention is determined only by the position of the eyes relative to the head of the subject. If the subject's head is in a normal upright posture, the zero-sighting direction substantially corresponds to the horizontal direction in the frame of reference of the earth.
  • the zero-sighting direction may, however, be tilted to the horizontal direction in the frame of reference of the earth, for example, if the test person moves his head forward or to the side without any further movement of the eyes inclines.
  • the zero-sighting direction of both eyes forms a plane which, in the reference system of the earth, is essentially parallel to the horizontal plane.
  • the plane spanned by the two null directions of the two eyes may also be inclined to the horizontal plane in the frame of reference of the earth, for example, if the subject tilts the head forward or to the side.
  • the subject's horizontal plane corresponds to a first plane and the subject's vertical plane corresponds to a second plane perpendicular to the first plane.
  • the horizontal plane in the reference frame of the subject may be parallel to a horizontal plane in the frame of reference of the earth and extend only through the center of a pupil. This is especially the case if the two eyes of the subject are arranged, for example, at different heights (in the frame of reference of the earth).
  • a representation of at least the subregion of the system of the head and the spectacles of the subject arranged in the position of use are determined.
  • this three-dimensional representation local relations in the three-dimensional space of the evaluation data relative to one another can be determined in a simple manner, and the optical parameters of the subject can be determined therefrom.
  • the evaluation of the image data further comprises executing a user-definable number of a set of a plurality of predetermined manual image-selection steps.
  • a predetermined or predetermined image selection step is understood to be a user interaction step in which the user is shown a recorded image and the user has one or more predetermined elements, such as the pupil centers of the subject or Fassungsrand- or eyeglass lens points of the glasses, selects or selects.
  • the user for this purpose also displayed selection crosses, in particular using arrow keys on a keyboard and / or with a computer mouse, move.
  • the user can also select the selection elements directly by clicking with the computer mouse.
  • the image displayed to the user preferably already has a preselection of the element to be selected or of the elements to be selected on the basis of a preceding automatic image processing. This automatic preselection can be checked by the user and reworked if necessary.
  • the image selection steps are predetermined with regard to the elements to be selected.
  • the image selection steps may also be predetermined with regard to their sequence to be carried out, so that the individual image selection steps can be performed by the user only in a predetermined or predetermined order.
  • the user can specify the number of image selection steps performed by him.
  • the user definable number x of the plurality N of predetermined manual image selection steps may be an integer between zero and the total number N of predetermined image selection steps, i.e., 0 ⁇ x ⁇ N, where x and N are integers.
  • the user may specify, for example, or decide not to execute any or all of the available or predetermined manual image selection steps.
  • the user must execute a predetermined number of image selection steps, for example one or two image selection steps, and only then decide or can determine whether and when he cancels the iterative determination.
  • the user definable number x of the plurality N of predetermined manual image selection steps may be an integer between one and the total number N of predetermined image selection steps, ie, 1 ⁇ x ⁇ N user definable number x of the plurality N of predetermined manual image selection steps an integer between two and the total number N of predetermined image selection steps, ie, 2 ix -S N.
  • the optical parameters are determined iteratively by evaluating the generated image data, the number of It depends on the number of manual image selection steps performed by the user. In other words, the determination of the optical parameters takes place stepwise, ie the determination approaches the exact solution in repeated iteration or determination steps.
  • the particular optical parameters can be updated.
  • the updating may include optimizing, refining, enhancing, and / or replacing at least one of the optical parameters to be determined.
  • initially estimated or initially assumed values of optical parameters may be determined by means of performed evaluation steps, i. be updated with the help of one or more automatic image processing and / or with the help of one or more executed image selection steps, in particular based on the evaluation data generated by the evaluation.
  • the number of iteration or determination steps for the determination of the optical parameters is also possible for the number of iteration or determination steps to be only one, ie for a total of only one iteration or determination step to take place and thus no repeated or updated determination takes place.
  • the determination of the optical parameters is based on automatic image processing only.
  • the number of iteration steps is preferably two. If the number of manual image selection steps performed by the user is two, the number of iteration steps, depending on the embodiment, may be equal to one or three. If the number of manual image selection steps performed by the user is greater than three, then the number of iteration steps is preferably greater than or equal to three and in particular greater than or equal to five.
  • the method according to the invention thus advantageously allows the user a high degree of flexibility by setting the number of image selection steps performed by him in terms of accuracy and speed.
  • the inventive method allows a faster determination of the optical parameters taking into account the accuracy. If the user sets, for example, the most accurate possible determination of the optical parameters, then he can execute all predetermined image selection steps. However, if the user focuses on determining the optical parameters as quickly as possible, or if it is sufficient that only some of the optical parameters are determined with some accuracy, the user can speed up the process by using no or only a portion of the given manual ones Performs image selection steps. By setting the number of image selection steps performed, the user can advantageously influence the accuracy and speed of the method according to the invention or the determination of the optical parameters.
  • the accuracy of the method according to the invention or the specific optical parameters depends on the number of image selection steps carried out by the user.
  • the accuracy of at least one of the optical parameters is increased.
  • the user is thus able with the method according to the invention to select an optimum ratio of speed and accuracy for the respective application. This is advantageous, for example, if it is not necessary for an application that the optical parameters are determined with the highest possible accuracy. Or even if the user only wants to determine those optical parameters that are already output after the automatic image processing and / or after a few manual image selection steps with sufficient accuracy.
  • the method for determining optical parameters of a subject by means of a video centering system may comprise in particular the following steps:
  • evaluating the generated image data comprises computer-assisted automatic image processing of the image data and executing a user-definable number of a plurality of predetermined manual image-selection steps, and wherein:
  • the accuracy and / or quality of the particular optical parameters depends on the number of manual image selection steps performed by the user.
  • a renewed determination or updating, refinement and / or optimization of the optical parameters takes place, in particular on the basis of the last executed image Image selection step present evaluation result or the present after the last performed image selection step evaluation data.
  • the method further comprises providing the determined optical parameters.
  • the term "providing” includes, for example, displaying, outputting and / or making available the specific optical parameters, in particular with the aid of an interface, eg for consulting programs, an ordering software or a storage in a database the data in the form of a display and / or accessibility made using an interface.
  • the optical parameters determined by the method according to the invention include both individual parameters and centering data.
  • Individual parameters in the sense of this invention are, for example: the monocular pupillary distance (PD), ie the distance between the center of the socket and the center of the pupil when the eye is in the primary position; the corneal vertex distance (HSA), ie the distance between the back surface of the glass and the apex of the cornea, measured in the direction perpendicular to the frame level; the pretilt (VN), ie the angle in the vertical plane between the optical axis of the glass and the fixation line of the eye in primary position; the lens angle (FSW), ie the angle between the socket plane and the right or left disk plane; the individual head posture, ie the head tilt and head rotation.
  • PD monocular pupillary distance
  • HSA corneal vertex distance
  • VN the angle in the vertical plane between the optical axis of the glass and the fixation line of the eye in primary position
  • the lens angle (FSW) ie the angle between the socket plane and the right or left disk plane
  • the individual head posture ie
  • Centering data in the sense of this invention are, for example: the slice length (SL), ie the distance between the vertical sides of a rectangle circumscribing the frame edge; the slice height (SH), ie the distance between the horizontal sides of the rectangle circumscribing the border of the frame; - the distance between the glasses (AzG); the decentration of the centering point, horizontal (u), ie the horizontal distance of the centering point from the geometric center of the disc; - the decentration of the centering point, vertical (v), ie the vertical distance of the centering point from the geometric center of the disc;
  • the method further comprises providing initial optical parameters, wherein determining the subject's optical parameters is based on the provided initial optical parameters and additional evaluation data generated by the evaluation.
  • the additional evaluation data preferably comprises 3D data or spatial information in the three-dimensional space of predetermined points of the system of the head of the subject and the spectacles arranged thereon in the position of use.
  • the initials Optical parameters provided before the beginning of the evaluation preferably comprise estimated or assumed values, in particular standard values, for at least part or all of the optical parameters to be determined.
  • the initial optical parameters or the standard values can result from average values of previous measurements or as empirical values.
  • the initial optical parameters or the default values are preferably updated, improved, or replaced by the evaluation of the method according to the invention, in particular with the aid of the evaluation data generated by the evaluation.
  • the default values are oriented e.g. on the value of non-individualized products or statistical averages obtained in advance. Especially for HSA, VN and FSW reasonable assumptions are available. For PD, SL, SH, the determination of the statistical means, e.g. consider the following criteria to better match the final value:
  • auxiliary parameters derived from original data of a previous measurement such as the ratio SL / SH, or the ratio of the pupil distance to the grinding height, can be provided or used.
  • auxiliary parameters it is advantageously possible, based on already present default values provide further initial optical parameters.
  • these auxiliary parameters can also be used in the evaluation of the image data.
  • the auxiliary parameter or the ratio SL / SH can be approximated to the SH if the SL has already been approximated.
  • the initial optical parameters or the default values can be taken into account, for example, as follows: Due to fads or fashionable ideals, in a certain mode period, which e.g. is about a year, certain versions popular. Thus, the mean values of the parameters AzG, SL or SH can also change after this mode period. Since this trend usually only takes place geographically limited, a change in the parameters can only be observed locally (continent, country, city). An average for these parameters is therefore preferably taken into account taking into account all recordings taken and evaluated in the local environment that are not older than e.g. a year are calculated.
  • the pupil distance e.g. gender, age and geographic information about the location where the measurement or method of the invention, i. the determination of the optical parameters, is performed, taken into account or used.
  • predetermined filters can thus be applied to measurements already carried out, ie to earlier measurement results.
  • a meaningful determination and application of appropriate filters on already performed measurements is a separate task of the statistical data analysis.
  • the filters can be dynamic, ie require a recalculation for a single measurement, or rely on a static model.
  • Static in this context means that a filter with the same data at different places and times comes to the same result.
  • Dynamic means that the filter takes place and / or time into account.
  • a dynamic filter as described above, can only consider data that is within of one year retroactively from the time of measurement, while older data is ignored.
  • a recalculation is necessary if the data basis changes, eg if new data is added.
  • recalculation is necessary for each measurement to account for the dynamically changing data basis.
  • a digital description of the socket form can also be used to provide the initial optical parameters.
  • the production of bi-data takes place by taking a first image of at least partial regions of the system of the head of the subject and a pair of spectacles arranged thereon in a first recording direction and taking a second image of at least partial regions of the system under a second recording direction , wherein the first and the second recording direction differ from each other.
  • the evaluation of the image data begins with a determination of positions of the pupils of the subject in the first image.
  • a first evaluation step may include determining the position of a first pupil of the subject in the first image and determining the position of a second pupil of the subject in the first image.
  • a second evaluation step which follows immediately after the first evaluation step, a determination of the position of the first pupil of the subject in the second image and a determination of the position of the second pupil of the subject in the second image can take place.
  • Both the first evaluation step and the second evaluation step thus each comprise two evaluation sub-steps, namely the determination of the position of the first pupil and the determination of the position of the second pupil. Determining positions of the pupils in the first and The second image can each take place on the basis of an automatic image processing and / or at least one user-executed image selection step.
  • an optimal evaluation order is achieved with regard to the iterative or updated determination of the optical parameters.
  • the accuracy of the iteratively determined or provided parameters can be increased rapidly and effectively, since SD coordinates are already obtained at an early point in time.
  • determining the pupil positions in both images e.g. already determinable a total pupil distance that can be provided updated.
  • an initial default value of the total pupil distance can be updated or replaced.
  • an additional head rotation to be detected could be e.g. be taken into account as correction value.
  • an updated monopupillary distance can also be determined or provided by halving.
  • model-based HSA values can be updated.
  • a user-executable first image selection step comprises manually selecting positions of the pupil centers of the subject in the first image.
  • a second image selection step performed or executed by the user immediately after the first image selection step, comprises manually selecting positions of the pupils or pupil centers of the subject in the second image.
  • the first image selection step comprises a first image selection substep, namely, manually selecting the position of the first pupil in the first image, and a second image selection substep, namely, manually selecting the position of the second pupil in the first image.
  • the second image selection step also comprises a first image selection substep, namely, manually selecting the position of the first pupil or pupil center in the second image, and a second image selection substep, namely, manually selecting the position of the second pupil or pupil center in the second image.
  • a third image selection step performed or executed by the user immediately after the second image selection step comprises manually selecting, preferably temporal, or more preferably nasal, border points of the goggles worn by the subject in the first image.
  • a fourth image selection step, performed or performed by the user immediately after the third image selection step includes manually selecting, preferably temporal, or more preferably nasal, border margins of goggles worn by the subject in the second image.
  • first selection elements preferably the temporal, or more preferably the nasal, peripheral margins are selected as the second selection element.
  • a further improved estimation of the mono-PD can be made and provided.
  • Such an iterative determination can be continued accordingly for the remaining optical parameters.
  • one or more image selection steps executable or executed by the user immediately after the fourth image selection step include manually selecting further, in particular temporal, nasal, lower and / or upper, frame edge points of the spectacles worn by the subject in the first and / or second Image.
  • further image selection steps to be performed or executed by the user in the given order comprise: manually selecting a frame horizontal of the spectacles worn by the subject in the first image,
  • a manual selection of at least one temporal-upper chest measurement of the spectacles worn by the subject in the first image Preferably, two nasal-lower box dimensions, namely one to be selected for the left and one for the right lens.
  • two temporal-upper box dimensions namely one for the left and one for the right spectacle lens, are preferably selected.
  • an associated automatic image processing is carried out immediately before each executable manual image selection step.
  • an automatic preselection of the image elements to be selected in the respective image selection step can take place by means of automatic image processing associated with an image selection step. The user then need only check the automatic preselection and correct if necessary. This facilitates user interaction.
  • the iterative determination of the optical parameters also takes place on the basis of additional statistical data, in particular on the basis of the abovementioned auxiliary parameters, which describe a dependency between two or more of the optical parameters.
  • the statistical data may describe a dependency between SL and SH. This is helpful, for example, if the SL has already been determined as far as possible after determination of the temporal and nasal border margins, but for which SH only the original default values or mean values are available. Consequently For example, the accuracy of further optical parameters can be quickly increased without the need for an additional manual image selection step. In particular, the quality of the automatic preselection can be improved, whereby the corrections to be made by the user are further reduced.
  • the particular optical parameters or updated optical parameters of the subject are provided with an indication of the expected accuracy of the particular optical parameters, i. output or displayed.
  • an additional value to the parameter may inform about its quality, for example an indication between 0% and 100%.
  • labeling can also be carried out without an explicit indication, e.g. is described in the manual and the user or operator has obtained by reading the knowledge that an evaluation only after full implementation reaches the maximum accuracy and values are within certain limits indefinite in case of premature termination.
  • the determined optical parameters are displayed after each executed iteration step, in particular after each executed automatic image processing and / or after each executed image selection step, optionally with an indication of the accuracy or quality.
  • the particular optical parameters may be displayed on a computer display. Based on the displayed current Results of the optical parameters can help the user to decide whether further manual image selection steps are necessary to further increase the accuracy of the parameters, or whether the accuracy is already sufficient and therefore he can prematurely terminate the determination process.
  • Another independent aspect for achieving the object relates to a computer program product comprising program parts which, when loaded in a computer, are designed to carry out a method according to the invention.
  • Figure 1 shows a schematic flow diagram for determining optical parameters according to a conventional approach
  • Figure 2 is a schematic flow diagram for determining optical parameters according to a preferred embodiment of the present invention
  • FIG. 3 shows a schematic diagram of the evaluation order in the determination of optical parameters according to a preferred embodiment of the present invention
  • FIG. 4 shows exemplary values of optical parameters which were determined according to different evaluation steps of the method according to the invention.
  • the location information chosen in the present specification are each related to the immediately described and illustrated figure and are mutatis mutandis transferred to the new situation in a change in position.
  • the following description of the method according to the invention relates, for example, to a video centering system which is suitable for recording stereoscopic images with the aid of a first camera and a second camera, ie a video centering system with a stereo camera system. It It is understood, however, that the method according to the invention can also be used with other video centering systems, eg systems with only one camera, with which all optical parameters can be determined. If this description refers to a "frame edge", this term must be replaced by the term "lens edge" in the case of borderless frames.
  • K1 means a first camera view and "K2" means a second camera view.
  • KT means a first camera image and a first image taken with the first camera and
  • K2 means a second camera image and a second image taken with the second camera, respectively are therefore each marked with the numbered reference symbol "BS”.
  • the abbreviation “pupils K1" of the image selection step BS1 or BS10 means that in this step the user can select or select the pupils of the subject shown in the first camera view K 1.
  • the middle boxes each refer to an automatic image processing and are therefore designated by the numbered reference symbol "BV.”
  • image processing frame edge ++ used in FIG. 2 means that one or more predetermined points or elements of the frame or frame Eyeglass lens edge, eg upper, lower, nasal or temporal frame edge points or spectacle edge points, or also a frame horizontal or box dimensions are automatically detected.
  • the lower boxes each refer to the specific optical parameters.
  • FIG. 1 shows a schematic flow chart for determining optical parameters according to a conventional procedure.
  • a measurement recording 1 are generated in the image data by a first image with a first camera K1 and a second image with a second camera K2 are recorded.
  • the first and the second camera are located at different locations, so that images of the subject's head are taken from different perspectives, eg with the first camera K1 from the front and with the second camera K2 from below.
  • the evaluation of the generated image data or the recorded images takes place.
  • a computer-aided automatic image processing BV1 using appropriate Schml. Pattern recognition algorithms detected in both the first and in the second image, the pupils of the subject.
  • a user interaction or an image selection step BS1 to be executed by the user takes place in which the user selects or selects the pupils of the test person in the first image taken with the first camera K1.
  • a further computer-aided automatic image processing BV2 using corresponding image or pattern recognition algorithms in both the first and in the second image of the frame edge or the lens edge of the glasses worn by the subject detected.
  • a further user interaction or a further image selection step BS 2 to be performed by the user in which the user prescribes predetermined versions. Glass edge points of the spectacles worn by the subject in the selected with the first camera K1 first image selects or selects.
  • the image selection step BS3 the user thus selects the pupils of the subject in the second camera image K2, while the user selects predetermined frame edge points or spectacle edge points of the spectacles worn by the subject in the second camera image K2 in the subsequent image selection step BS4.
  • the individual evaluation data can be generated from the evaluation data generated thereby Parameters PD, HSA, VN, FSW, head rotation and head tilt are determined.
  • FIG. 2 shows a schematic flow diagram for determining optical parameters according to a preferred embodiment of the present invention.
  • the starting point of the method is a measurement recording 1, in which image data are generated by recording a first image B1, for example with a first camera and a second image B2, eg with a second camera.
  • a multiplicity of user interaction steps or image selection steps BS10 to BS22 are also predetermined for the determination of the optical parameters.
  • all the picture selection steps shown in FIG. 2 are optional, ie the user of the video centering system can decide for yourself whether and how many of the given, possible image selection steps he performs. In other words, he can set the number of image selection steps performed. With the number of image selection steps carried out, the user can influence in particular the number of executed iteration steps and / or the accuracy or quality of the specific optical parameters and thus also the speed of the parameter determination.
  • the individual specific optical parameters are each provided with numbers in square brackets. These numbers refer to the accuracy or quality of the particular optical parameters.
  • the accuracy or quality is therefore lowest for certain optical parameters marked with [1] and highest for certain optical parameters marked with [4]. Furthermore, the accuracy or quality of the particular optical parameters marked with [2] is less than the accuracy or quality of the particular optical parameters marked with [3].
  • a computer-aided automatic image processing of the generated image data or the recorded images is performed.
  • the pupils of the subject are automatically detected both in the first and in the second recorded image.
  • a second image processing step BV12 both in the first as well as in the second recorded image of the Perimeter border or predetermined points or elements of the frame border of the spectacles worn by the subject using detected image or pattern recognition algorithms detected.
  • all optical parameters can be determined and output fully automatically. This determination, which is based on only one determination or iteration step, thus represents a zeroth estimate for all optical parameters and corresponds to the lowest accuracy.
  • the determination may in particular be model-free, i. without any assumptions.
  • the initial position will be initial optical parameters, i. estimated values or default values for the optical parameters to be determined.
  • initial optical parameters i. estimated values or default values for the optical parameters to be determined.
  • VN 7 °
  • HSA 13 mm
  • FSW 5 °
  • PD 64 mm.
  • these model assumptions or default values can be improved by automated image processing.
  • pupil detection a suggestion can already be made as to where the pupils are located. On this basis, the total PD can already be provided optimized. This also applies to the further selection elements of the frame edge and the parameters derived therefrom.
  • the initial optical parameters can therefore be adapted or improved by the automatic image processing.
  • the initial optical parameters HSA and PD are adjusted on the basis of the detected pupils.
  • the user may perform an optional image selection step BS10 by selecting the subjects' pupils in the first camera image K1.
  • the further image processing steps BV14 with regard to the pupils and BV16 can be carried out with respect to the frame edge, so that finally on the basis of the evaluation data generated thereby in a second determination step or iteration step, all output or displayed optical parameters to be updated.
  • the user may at this point abort the determination process, if the accuracy of the particular optical parameters is already sufficient, or else execute the next predefined or possible image selection step BS12.
  • the image processing step BV18 is subsequently performed on the frame edge.
  • all specific optical parameters can be updated.
  • the total pupil distance can already be increased with increased accuracy, i. in the first estimate, but while e.g. the head tilt and head rotation are still based on a lower accuracy, namely the zeroth estimate.
  • the user can abort the determination process, provided the accuracy of the optical parameters determined hitherto is already sufficient, or else execute the next predefined or possible image selection step BS14.
  • the user executes the image selection step BS14 by selecting one or more predetermined frame margins, e.g. nasal border margins selected spectacles of the subject in the first camera image K1, then a further image processing step BV20 is performed with respect to the frame edge. With the evaluation data generated thereby, in turn, all specific optical parameters can be updated. In addition, after the previously executed steps, e.g. the mono-pupil distance and the value for AzG with increased accuracy, namely in the first estimate, output or displayed. At this point, the user can abort the determination process if the accuracy of the optical parameters determined up to that point is already sufficient, or if he performs the next predefined or possible image selection step BS16.
  • predetermined frame margins e.g. nasal border margins selected spectacles of the subject in the first camera image K1
  • a further image processing step BV20 is performed with respect to the frame edge.
  • all specific optical parameters can be updated.
  • the user can abort the determination process if the accuracy of the optical parameters determined up
  • the user executes the image selection step BS16 by selecting the frame edge point selected in the previous image selection step BS14 now also selected in the second camera image K2, then a further image processing step BV22 is performed with respect to the frame edge.
  • the user may at this point abort the determination process, provided that the accuracy of the optical parameters determined hitherto is already sufficient, or else execute the next predetermined or possible image selection step.
  • further image selection steps and image processing steps can be performed at this point, which proceed analogously to BS14, BV20, BS16 and BV22, but relate to further predetermined frame edge points, in particular to temporal, lower and / or upper frame edge points.
  • These further steps are preferably carried out alternately between camera view 1 and camera view 2 for each further preset frame edge point.
  • the nasal, upper and lower frame edge points are selected, so that with the evaluation data generated thereby, in turn, all specific optical parameters can be updated.
  • the head tilt and the head rotation are displayed with increased accuracy, namely in the first estimation, while e.g. the lens disc angle, the disc height SH, the insertion height y and the value for v is still based on a lower accuracy, namely the zeroth estimate.
  • the user executes the further predetermined image selection step BS18 by selecting the frame horizontal of the subject's spectacles in the first camera image K1, then another image processing step BV24 is performed with respect to the frame edge.
  • all specific optical parameters can be updated.
  • the overall pupil distance with further increased accuracy, namely in the second estimation, and the head inclination can already be output or displayed with the highest accuracy, ie as the final value, according to the steps performed so far.
  • the user can click on this Place the determination process abort, if the accuracy of the previously determined optical parameters is already sufficient, or perform the next predetermined or possible image selection step BS20.
  • the user executes the further predetermined image selection step BS20 by selecting the lower nasal box dimension of the subject's spectacles in the first camera image K1, then another image processing step BV26 is performed with respect to the frame edge.
  • all specific optical parameters can be updated.
  • the steps performed so far for example, the mono-pupil distance, the HSA, the pretilt and the mounting disk angle with further increased accuracy, namely in second estimation, and the insertion height y and the value for AzG already with the highest accuracy, ie as a final value , are output or displayed.
  • the user can abort the determination process if the accuracy of the optical parameters determined up to that point is already sufficient, or else if he carries out the next predefined or possible image selection step BS22. If the user executes the further predetermined image selection step BS22 by selecting the upper temporal box dimension of the subject's spectacles in the first camera image K1, then all the optical parameters can be output or displayed with the highest accuracy, ie as final values.
  • the image processing steps BV12 and BV16 and the associated determination steps or iteration steps are optional, ie it can be specified in one possible embodiment of the method according to the invention that the user must execute at least the image selection steps BS10 and BS12.
  • the determination step following the image processing step BV 8 is not the third but the first determination step or iteration step of the determination method.
  • it is advantageous to modify the evaluation sequence in comparison to the conventional method so that 3Q data can advantageously already be obtained at an early point in time.
  • the pupil positions in both images are first determined. From this an overall PD can already be determined, which can be provided updated.
  • an overall PD can already be determined, which can be provided updated.
  • an additionally determined head rotation for example, could still be taken into account as a correction value.
  • An updated mono-PD can also be provided by halving the overall PD.
  • an HSA value can already be updated.
  • the temporal or preferably the nasal border margins are selected. From this a further estimation of the mono-PD can be made and provided. This determination can be continued accordingly for the other values. In this case, the values not yet finally determined can be provided again updated with each further known measuring point.
  • Statistical data describing a dependency between the parameters for example, between SL and SH, can once again be included in this updated provision if the SL has already been largely determined after determination of the temporal and nasal peripheral points, but for which SH only the original mean values are available ,
  • the provision of the specific optical parameters is preferably carried out with an indication of the expected accuracy or quality of the information.
  • FIG. 3 shows a schematic diagram of the evaluation order in the determination of optical parameters according to a preferred embodiment of the present invention.
  • a total of seven different image selection steps A to G with the points to be selected by the user or Outlines elements that can be performed by the user after a first machine image preprocessing is indicated in the third column in which camera view or in which images the respective image selection steps are executed.
  • the image selection steps A to D are respectively performed alternately in the first camera image and the second camera image.
  • the image selection steps E to G are executed only in the first camera image.
  • the right-hand column of FIG. 3 it is indicated in each case for some of the optical parameters, in which accuracy they can be determined after the respectively executed image selection steps.
  • the accuracy of the optical parameters is also indicated here by a digit from 1 to 4 behind each optical parameter, where 1 means the lowest and 4 the highest accuracy.
  • 1 means the lowest and 4 the highest accuracy.
  • all optical parameters can be determined or provided with the lowest accuracy, ie in the zeroth estimate.
  • the accuracy of at least some of the optical parameters can be successively increased until at the end, ie after the executed image selection step G, all parameters with the highest accuracy are determined.
  • the right pupil 11 and the left pupil 12 of the subject are selected in both camera images.
  • the right nasal frame edge point 13 and the left nasal frame edge point 14 of the subject's spectacles are respectively selected in both camera images.
  • the right upper frame edge point 15 the left upper frame edge point 16, the left lower frame edge point 17, and the right lower frame edge point 18 of the subject's eyeglasses are selected in both camera images.
  • the right temporal frame edge point 19 and the left temporal frame edge point 20 of the subjects' glasses are selected in both camera images.
  • the image selection step E the frame horizontal 21 in the first camera image is selected.
  • the nasal lower box dimension 22 of the right spectacle lens and the nasal lower body dimension 23 of the left spectacle lens in the first camera image are respectively selected.
  • the temporal upper box dimension 24 of the right-hand spectacle lens and the temporal upper box dimension 25 of the left-hand spectacle lens in the first camera image are selected.
  • all not yet finally determined optical parameters can be redetermined or updated by the additionally obtained information. It is also possible that the image selection steps B, C and D are also performed in an order other than that shown in FIG.
  • Table 1 below shows a further exemplary sequence of image selection steps.
  • the number of the step in the first column, the selection element to be selected in the second column, the dependencies of already selected elements in the third column, and the corresponding 3D point to be calculated are listed in the fourth column.
  • the numbers 1 and 2 refer respectively to the camera view, i. on whether the selection step in the first or second image is executed.
  • the term "left” and “right” refers to the left and right pupils and the left and right lenses, respectively.
  • a selection and evaluation of the pupils takes place first. After step 4, the total pupil distance can thus already be determined.
  • the next step is the selection and evaluation of nasal border margins. This advantageously allows a fast approximate determination of the monocular pupillary distance.
  • the socket angle can be approximated to the PD level.
  • the pre-tilt can be determined on the left, while the left disk length, the left disk height and the monocular pupil distance can be estimated with increased accuracy.
  • approximately the right anterior tilt, the dial angle and the monocular pupil distance can be determined.
  • the slice length on the right and the slice height on the left can be determined.
  • Table 2 An alternative exemplary sequence of image selection steps is shown in Table 2 below. The representation and the designations correspond to those of Table 1. Table 2:
  • the total pupil distance can thus already be determined.
  • Table 1 is the selection and evaluation of nasal border margins. This advantageously allows a fast approximate determination of the monocular pupillary distance.
  • an evaluation of the temporal frame edge points is carried out to use an approximately determined FSW approximately for the further estimation of the monocular pupillary distance. After the eighteenth step, in particular the pre-tilt left can be determined.
  • the user selection may proceed as shown in the following Table 3.
  • the designations of the selection elements in Table 3 correspond to those of Tables 1 and 2.
  • a computer-based suggestion of one or more selection items is displayed on a screen simultaneously , In other words, the simultaneous display of specific selection elements on the screen takes place in each case in an associated display step.
  • a computer-based suggestion for the left and right pupils in the first camera view is displayed.
  • a computer-based proposal for the left and right pupils in the second camera view is displayed.
  • a computer-based proposal of the selection elements of the spectacle frame shown in Table 3 is shown in the first camera view.
  • a computer-based proposal of the selection elements of the spectacle frame shown in Table 3 is shown in the second camera view.
  • a computer-based proposal of the upper frame horizontal is shown in the first camera view.
  • a computer-based proposal of the box dimensions given in Table 3 is shown in the first camera view.
  • a computer-based suggestion of the left and right frame form is displayed in the first camera view.
  • the user preferably in any order or alternatively in a predetermined order, manually select the respective selection elements.
  • the proposed selection elements can serve as a guide. If all selection elements of a display step have been selected by the user, the next display step is continued. Table 3:
  • FIG. 4 shows exemplary values of optical parameters which were determined according to different evaluation steps of the method according to the invention.
  • initial optical parameters are shown as a starting point without evaluation. Since these are only estimates, these values may be e.g.
  • the values for PD, SL, SH and AzG can be updated or improved in accuracy, for example, the updated values can be displayed in color "Orange" are displayed.
  • the values for PD, HSA and AzG can be updated or improved.
  • the values for HSA can therefore be e.g. As the parameters PD and AzG have already reached the highest accuracy, the corresponding values can be represented, for example, in the color "green".
  • the values for HSA, FSW, SL, SH, u and v can be updated or improved. Since the highest accuracy for the parameters PD, FSW, SL, and AzG has already been reached at this time, the corresponding values can be obtained, for example. The determination of the optical parameters can be continued in this way until finally all the parameters are determined with the highest accuracy and are thus output in the color "green".

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Eyeglasses (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen von optischen Parametern eines Probanden sowie ein Computerprogrammprodukt zum Durchführen des Verfahrens. Das Verfahren umfasst die Schritte: Erzeugen von Bilddaten (1) zumindest von Teilbereichen eines Systems des Kopfes des Probanden und einer daran in Gebrauchsstellung angeordneten Brillenfassung; und iteratives Bestimmen der optischen Parameter durch ein Auswerten (2) der erzeugten Bilddaten, wobei das Auswerten (2) der erzeugten Bilddaten eine computergestützte automatische Bildverarbeitung (BV10-BV26) der Bilddaten und ein Ausführen einer von einem Benutzer des Videozentriersystems festlegbaren Anzahl einer Vielzahl von vorgegebenen manuellen Bildselektionsschritten (BS10-BS22) umfasst, und wobei die Anzahl von Iterationsschritten, welche bei der iterativen Bestimmung der optischen Parameter ausgeführt werden, von der Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte abhängt.

Description

"Verfahren zum Bestimmen von optischen Parametern eines Probanden und Computerprogrammprodukt zum Durchführen des Verfahrens"
Beschreibung
Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen von optischen Parametern eines Probanden sowie ein Computerprogrammprodukt zum Durchführen des Verfahrens.
Zur Bestimmung der Lage eines Brillenglases vor dem Auge eines Brillenträgers bzw. Probanden müssen mehrere optische Parameter bestimmt werden. Einerseits um die zum Einschieifen und Einsetzen in die Fassung benötigten Informationen zu erhalten, andererseits um Optimierungen im Brillenglas selbst vorzunehmen und dieses auf die spätere Trageposition bzw. Gebrauchsstellung optimal anzupassen.
Um die optischen Vorteile von individuellen Brillengläsern, insbesondere von individuell angepassten Gleitsichtgläsern eines Brillenträgers, vollständig auszuschöpfen, ist es also notwendig, diese Brillengläser in Kenntnis der Gebrauchsstellung des Brillenträgers zu berechnen und herzustellen und gemäß der zur Berechnung und Herstellung verwendeten Gebrauchsstellung zu tragen. Die Gebrauchsstellung ist von einer Vielzahl individueller Parametern abhängig, wie z.B. von der Pupillendistanz des Probanden, dem Fassungsscheibenwinkel, der Brillenglasvorneigung, und dem Hornhautscheitelabstand des Systems von Brille und Auge. Ferner ist es notwendig, dass die Brillengläser entsprechend den individuellen Parametern, welche zur Herstellung verwendet wurden, in einer Brillenfassung angeordnet bzw. zentriert werden, so dass die Brillengläser tatsächlich entsprechend den individuellen Parametern in Gebrauchsstellung getragen werden. Hierfür sind sogenannte Zentrierdaten wie z.B. die Scheibenlänge, die Scheibenhöhe, der Abstand zwischen den Gläsern einer Brille, die Dezentration eines Zentrierpunktes und die Zentrierhöhe erforderlich. Diese und weitere optische Parameter, welche insbesondere zur Beschreibung der Gebrauchsstellung herangezogen werden können, bzw. notwendig sind, sind in einschlägigen Normen, wie beispielsweise der DIN EN ISO 13666, der DIN EN ISO 58208, der DIN EN ISO 8624 und der DIN 5340 enthalten und können diesen entnommen werden. Die Ermittlung der individuellen Parameter und der Zentrierdaten kann prinzipiell manuell durch eine Vielzahl von Messgeräten erfolgen, der jeweils abgelesene Wert ist damit sofort bekannt. Allerdings erfordert jeder manuell zu ermittelnde Parameter ein separates Testverfahren, welches wiederum eine große Abhängigkeit von der ausführenden Person sowie prinzipbedingt erhebliche Fehler z.B. durch Parallaxen aufweisen kann.
Darüber hinaus können zur Ermittlung von individuellen Parameter und Zentrierdaten sogenannte Videozentriersysteme verwendet werden, die einzelne oder auch alle Parameter durch Aufnahme eines Bildes einer Person mit Brillenfassung und unter Zuhilfenahme evtl. weiterer Hilfsmittel ermitteln. Ein derartiges Videozentriersystem ist z.B. in der Druckschrift EP 1 844 363 B1 offenbart. Das darin beschriebene Videozentriersystem basiert auf einem Stereokamerasystem und einer Fixation mittels Spiegelbild, was hervorragende Ergebnisse mit einer einzigen Messaufnahme ermöglicht.
Im Vergleich zu einem 2D-projektionsbasierten Verfahren, bei dem bis zu drei Aufnahmen erforderlich sind, die neben einem Ortswechsel des Probanden (z.B. einen Schritt zur Seite gehen) unter Umständen auch ein Absetzen der Fassung erforderlich machen können, können mit einem Stereokamerasystem mit einer einzigen Aufnahme alle Parameter ermittelt werden.
Aus der erstellten Aufnahme wird durch eine Auswertung das Resultat ermittelt. Die Auswertung ist dabei eine Abfolge von manuellen Auswahlschritten, bei denen vorbestimmte Merkmale im Bild ausgewählt werden. Dabei kann der Anwender bzw. Benutzer des Videozentriersystems durch Bildverarbeitung unterstützt werden. Wurden alle vorgegebenen Auswahlschritte absolviert, werden die entsprechenden Parameter ermittelt und angezeigt. Bei der Bestimmung der individuellen Parameter und der Zentrierung wird eine genaue und schnelle Messung angestrebt. Die Genauigkeit wird vorrangig durch die Messmethode definiert. Die von Rodenstock eingesetzte Methode auf Basis eines Stereokamerasystems und der Fixation mittels Spiegelbild liefert hier hervorragende Ergebnisse mit einer einzigen Messaufnahme. Andere Methoden leiden an prinzipbedingten Fehlern durch Modellannahmen oder den Verlust von Informationen durch die Projektion auf 2D. Die Dauer einer Messung wird von verschiedenen Faktoren beeinflusst. Zunächst sind Verfahren mit Fassungsaufsatz ungünstig, da dadurch eine vorhergehende Präparation der Fassung erforderlich wird und über die Messdauer der korrekte Sitz des Aufsatzes zusätzlich kontrolliert werden muss. Des Weiteren kann zwischen Verfahren mit einer Aufnahme und mit mehreren Aufnahmen unterschieden werden. Mit einem Stereokamerasystem können mit einer einzigen Aufnahme alle Parameter ermittelt werden. Bei 2D-projektionsbasierten Verfahren sind bis zu drei Aufnahmen erforderlich, die neben einem Ortswechsel unter Umständen auch ein Absetzen der Fassung erforderlich machen können. Bei der Auswertung der aufgenommenen Bilder spielt insbesondere die Qualität der unterstützenden Bildverarbeitung eine Rolle, wie schnell eine Auswertung durchgeführt werden kann.
Es ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Bestimmen von optischen Parametern eines Probanden mittels eines Videozentriersystems bereitzustellen, welches eine schnellere Bestimmung der Parameter erlaubt.
Diese Aufgabe wird durch die Gegenstände der nebengeordneten Ansprüche gelöst. Vorteilhafte Ausführungsformen sind Gegenstand der Unteransprüche.
Ein erster unabhängiger Aspekt zur Lösung der Aufgabe betrifft ein Verfahren zum Bestimmen von optischen Parametern eines Probanden mittels eines Videozentriersystems, umfassend die Schritte:
Erzeugen von Bilddaten zumindest von- Teilbereichen eines Systems des Kopfes des Probanden und einer daran in Gebrauchsstellung angeordneten Brillenfassung bzw. Brille;
iteratives Bestimmen der optischen Parameter durch ein Auswerten der erzeugten Bilddaten, wobei
das Auswerten der erzeugten Bilddaten eine computergestützte automatische
Bildverarbeitung der Bilddaten und ein Ausführen einer von einem Benutzer des Videozentriersystems festlegbaren Anzahl einer Vielzahl von vorgegebenen manuellen Bildselektionsschritten umfasst, und wobei
die Anzahl von Iterationsschritten, welche bei der iterativen Bestimmung der optischen Parameter ausgeführt werden, von der Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte abhängt.
Ein Proband ist im Sinne der vorliegenden Erfindung insbesondere ein Brillenträger bzw. ein Patient, für den eine Brille gefertigt bzw. angepasst werden soll. Als Benutzer wird im Sinne der vorliegenden Erfindung eine Person verstanden, welche das Videozentriersystem bedient. Ein Benutzer kann z.B. ein Optiker oder Augenarzt sein. Es ist aber auch möglich, dass der Proband das Videozentriersystem selbst bedient und somit der Proband und der Benutzer dieselbe Person sind. Das Erzeugen von Bilddaten erfolgt insbesondere durch ein Aufnehmen von digitalen Bildern, vorzugsweise mit Hilfe eines Stereokamerasystems. Die Bilddaten bzw. die digitalen Bilder werden vorzugsweise aus zumindest zwei unterschiedlichen Aufnahmerichtungen erzeugt. Dabei können die Bilder mit nur einer einzigen Kamera nacheinander oder mit mehreren, insbesondere zwei, Kameras, welche sich an verschiedenen Orten befinden, simultan aufgenommen werden.
Unter zwei unterschiedlichen Aufnahmerichtungen wird im Sinne der vorliegenden Erfindung verstanden, dass von überlappenden Teilbereichen des Kopfes, vorzugsweise von ein und demselben Teilbereich des Kopfes, verschiedene Bilddaten erzeugt werden, insbesondere, dass Bilddaten von identischen Teilbereichen des Kopfes des Benutzers unter verschiedenen perspektivischen Ansichten erzeugt werden. Folglich wird zwar derselbe Teilbereich des Kopfes abgebildet, die Bilddaten unterscheiden sich jedoch. Unterschiedliche Aufnahmerichtungen können beispielsweise auch dadurch erreicht werden, dass die Bilddaten von zumindest zwei Bildaufnahmeeinrichtungen bzw. Kameras erzeugt werden, wobei effektive optische Achsen der zumindest zwei Bildaufnahmeeinrichtungen nicht parallel sind.
Vorzugsweise werden die Bilddaten bzw. die digitalen Bilder mit Hilfe einer stereoskopischen Bildaufnahmeeinrichtung erzeugt. Mit anderen Worten basiert das Videozentriersystem vorzugsweise auf einer stereoskopischen Bildaufnahme. Vorzugsweise umfassen bzw. sind die Bilddaten digitale stereoskopische Bilder. Insbesondere entsprechen die aufgenommenen Bilder den erzeugten Bilddaten.
Vorzugsweise sind in den erzeugten Bilddaten die Pupillen des Probanden und ein Brillenfassungsrand bzw. ein Brillenglasrand abgebildet, wobei in den erzeugten Bilddaten, die Pupillen des Probanden von dem Brillenfassungsrand bzw. dem Brillenglasrand umgrenzt sind.
Unter einer„Brille" wird im Sinne der vorliegenden Beschreibung eine Brillenfassung mit oder ohne Brillengläser verstanden. Eine Brille im Sinne der vorliegenden Beschreibung muss somit nicht zwingend Brillengläser aufweisen, sondern kann lediglich eine Brillenfassung sein. Der Proband kann z.B. zur Durchführung des erfindungsgemäßen Verfahrens lediglich eine Brillenfassung, in welche Brillengläser zur Korrektur von Fehlsichtigkeit eingeschliffen werden sollen, tragen. Alternativ kann der Proband aber auch eine Brillenfassung mit dazugehörigen Brillengläsern tragen.
Eine automatische bzw. maschinelle Bildverarbeitung der Bilddaten umfasst insbesondere bekannte Mustererkennungsalgorithmen, mit denen bestimmte Elemente oder Merkmale eines Bildes Software- bzw. computergestützt erkannt und/oder markiert werden können. Beispielsweise umfasst eine Bildverarbeitung Algorithmen, mit denen nach bestimmten Formen, Punkten und/oder Umgebungen von Punkten gesucht werden kann. Vorzugsweise umfasst die computergestützte automatische Bildverarbeitung eine automatische Detektion von Pupillen bzw. von Pupillenmittelpunkten des Probanden und eine automatische Detektion eines oder mehrerer Fassungsrandpunkte und/oder Brillenglasrandpunkte, wie z.B. einen oberen, unteren, nasalen oder temporalen Fassungsrandpunkt und/oder Briilenglasrandpunkt, der Brille bzw. Brillenfassung des Probanden.
Vorzugsweise werden durch das Auswerten der Brillendaten Auswertedaten erzeugt, welche 3D-Daten bzw. Ortsinformationen im dreidimensionalen Raum von vorbestimmten Punkten des Systems des Kopfes des Probanden und der daran in Gebrauchsstellung angeordneten Brille umfassen. Die optischen Parameter werden insbesondere auf Basis der erzeugten Auswertedaten bzw. der Ortsinformationen bestimmt.
Vorzugsweise umfassen die mittels der Auswertung der Bilddaten erzeugten Auswertedaten Ortsinformationen für zumindest einen der folgenden Punkte:
Schnittpunkte einer im Bezugssystem des Probanden horizontalen Ebene mit den Brillenglasrändern und/oder den Brillenfassungsrändern der Brille, wobei die horizontale Ebene des Probanden beide Pupillen des Probanden schneidet und parallel zu einer vorbestimmten Nullblicklinie des Probanden verläuft;
Schnittpunkte einer im Bezugssystem des Probanden vertikalen Ebene mit den Brillenglasrändern und/oder den Brillenfassungsrändern der Brille, wobei die vertikale Ebene des Probanden senkrecht zu der horizontalen Ebene des Probanden und parallel zu der vorbestimmten Nullblicklinie des Probanden verläuft und eine Pupille des Benutzers schneidet; zumindest einen Pupillenmittelpunkt; - Begrenzungen zumindest eines Brillenglases des Benutzers nach einer Bemaßung im Kastenmaß; einen Brillenmittelpunkt der Brillenfassung der Brille.
Unter einer Bemaßung im Kastenmaß wird im Sinne dieser Erfindung das Maßsystem verstanden, wie es in einschlägigen Normen, beispielsweise in der DIN EN ISO 8624 und/oder der DIN EN ISO 13666 und/oder der DIN 58208 und/oder der DIN 5340, beschrieben wird. Ferner wird hinsichtlich des Kastenmaßes und weiterer verwendeter herkömmlicher Begriffe und Parameter auf das Buch "Die Optik des Auges und der Sehhilfen" von Dr. Roland Enders, 1995 Optische Fachveröffentlichung GmbH, Heidelberg, sowie das Buch "Optik und Technik der Brille" von Heinz Diepes und Ralf Blendowksi, 2002 Verlag Optische Fachveröffentlichungen GmbH, Heidelberg, verwiesen. Die Normen sowie das genannte Buch stellen für die Begriffsdefinitionen insoweit einen integralen Offenbarungsbestandteil der vorliegenden Anmeldung dar. Die Begrenzungen nach einer Bemaßung im Kastenmaß umfassen beispielsweise Fassungspunkte für ein Auge oder beide Augen, welche am weitesten außen bzw. innen und/oder oben bzw. unten liegen. Diese Fassungspunkte werden herkömmlicherweise anhand von Tangenten an die Brillenfassung bzw. den jeweiligen Augen zugeordneten Bereichen der Brillenfassung bestimmt (vgl. DIN 58 208; Bild 3).
Die Nullblickrichtung im Sinne dieser Erfindung ist eine Blickrichtung geradeaus bei parallelen Fixierlinien. In anderen Worten handelt es sich um eine Blickrichtung, welche durch eine Stellung des Auges relativ zum Kopf des Probanden definiert ist, wobei die Augen ein Objekt anblicken, das sich in Augenhöhe befindet und an einem unendlich fernen Punkt angeordnet ist. Folglich ist die Nullblickrichtung im Sinne dieser Erfindung lediglich durch die Stellung der Augen relativ zum Kopf des Probanden bestimmt. Befindet sich der Kopf des Probandes in einer normalen aufrechten Haltung, so entspricht die Nullblickrichtung im Wesentlichen der Horizontalrichtung im Bezugssystem der Erde. Die Nullblickrichtung kann aber zu der Horizontalrichtung im Bezugssystem der Erde gekippt sein, falls beispielsweise der Proband seinen Kopf, ohne weitere Bewegung der Augen, nach vorne oder zur Seite neigt. Analog wird durch die Nullblickrichtung beider Augen eine Ebene aufgespannt, welche im Bezugssystem der Erde im Wesentlichen parallel zur Horizontalebene ist. Die Ebene, welche durch die beiden Nullblickrichtungen der beiden Augen aufgespannt wird, kann ebenfalls zu der Horizontalebene im Bezugssystem der Erde geneigt sein, falls beispielsweise der Proband den Kopf vorne oder zur Seite neigt.
Vorzugsweise entsprechen die horizontale Ebene des Probanden einer ersten Ebene und die vertikale Ebene des Probanden einer zweiten Ebene, welche senkrecht zu der ersten Ebene ist. Beispielsweise kann die horizontale Ebene im Bezugssystem des Probanden parallel zu einer horizontalen Ebene im Bezugssystem der Erde angeordnet sein und lediglich durch den Mittelpunkt einer Pupille verlaufen. Dies ist insbesondere dann der Fall, falls die beiden Augen des Probanden beispielsweise in unterschiedlicher Höhe (im Bezugssystem der Erde) angeordnet sind.
Vorteilhafterweise werden mittels des erfindungsgemäßen Verfahrens anhand von zweidimensionalen Bilddaten eine Darstellung zumindest des Teilbereichs des Systems des Kopfes und der daran in Gebrauchsstellung angeordneten Brille des Probanden bestimmt. Anhand dieser dreidimensionalen Darstellung können in einfacher Weise Ortsrelationen im dreidimensionalen Raum der Auswertedaten zueinander bestimmt werden und daraus die optischen Parameter des Probanden bestimmt werden.
Neben der computergestützten automatischen Bildverarbeitung der Bilddaten umfasst das Auswerten der Bilddaten ferner ein Ausführen einer von einem Benutzer des Videozentriersystems festlegbaren Anzahl bzw. einer festlegbaren Teilmenge einer Vielzahl von vorgegebenen manuellen Bildselektionsschritten.
Unter einem vorgegebenen oder vorbestimmten Bildselektionsschritt wird im Sinne dieser Erfindung ein Benutzerinteraktionsschritt verstanden, bei welchem dem Benutzer ein aufgenommenes Bild angezeigt wird und der Benutzer ein oder mehrere vorgegebene Elemente, wie z.B. die Pupillenmitten des Probanden oder Fassungsrand- bzw. Brillenglaspunkte der Brille, auswählt bzw. selektiert. Beispielsweise kann der Benutzer zu diesem Zweck ebenfalls angezeigte Selektionskreuze, insbesondere mit Hilfe von Pfeiltasten einer Tastatur und/oder mit einer Computermaus, verschieben. Alternativ oder zusätzlich kann der Benutzer die Selektionselemente auch direkt durch Anklicken mit der Computermaus selektieren. Das dem Benutzer angezeigte Bild weist vorzugsweise auf Basis einer vorangegangenen automatischen Bildverarbeitung bereits eine Vorselektion des auszuwählenden Elements bzw. der auszuwählenden Elemente auf. Diese automatische Vorselektion kann der Benutzer überprüfen und gegebenenfalls nachbearbeiten.
Die Bildselektionsschritte sind hinsichtlich der zu selektierenden Elemente vorgegeben. Insbesondere können die Bildselektionsschritte auch hinsichtlich ihrer auszuführenden Reihenfolge vorgegeben sein, so dass die einzelnen Bildselektionsschritte vom Benutzer lediglich in einer vorgegebenen bzw. vorbestimmten Reihenfolge ausgeführt werden können.
Erfindungsgemäß kann der Benutzer die Anzahl der von ihm ausgeführten Bildselektionsschritte festlegen. Die vom Benutzer festlegbare Anzahl x der Vielzahl N von vorgegebenen manuellen Bildselektionsschritten kann eine ganze Zahl zwischen Null und der Gesamtzahl N von vorgegebenen Bildselektionsschritten sein, d.h., 0 < x < N, wobei x und N ganze Zahlen sind.
D.h. der Benutzer kann z.B. festlegen bzw. sich entscheiden, keinen, einen Teil oder alle der zur Verfügung stehenden bzw. vorgegebenen manuellen Bildselektionsschritte auszuführen. Es kann aber auch vorgesehen sein, dass der Benutzer eine vorbestimmte Anzahl von Bildselektionsschritten, z.B. einen oder zwei Bildselektionsschritte, ausführen muss und erst dann entscheiden bzw. festlegen kann, ob und wann er die iterative Bestimmung abbricht. Beispielsweise kann die vom Benutzer festlegbare Anzahl x der Vielzahl N von vorgegebenen manuellen Bildselektionsschritten eine ganze Zahl zwischen Eins und der Gesamtzahl N von vorgegebenen Bildselektionsschritten sein, d.h., 1 < x < N. Vorzugsweise beträgt die vom Benutzer festlegbare Anzahl x der Vielzahl N von vorgegebenen manuellen Bildselektionsschritten eine ganze Zahl zwischen Zwei und der Gesamtzahl N von vorgegebenen Bildselektionsschritten, d.h., 2 i x -S N. Die optischen Parameter werden iterativ durch ein Auswerten der erzeugten Bilddaten bestimmt, wobei die Anzahl an Iterationsschritten von der Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte abhängt. Mit anderen Worten erfolgt die Bestimmung der optischen Parameter schrittweise, d.h. die Bestimmung nähert sich in wiederholten Iterations- bzw. Bestimmungsschritten der exakten Lösung an.
Nach jedem Iterationsschritt können die bestimmten optischen Parameter aktualisiert werden. Das Aktualisieren kann ein Optimieren, Verfeinern, Verbessern und/oder ein Ersetzen zumindest eines der zu bestimmenden optischen Parameter umfassen. Beispielsweise können in dem ersten Iterationsschritt anfänglich geschätzte oder anfänglich angenommene Werte von optischen Parametern mit Hilfe von durchgeführten Auswerteschritten, d.h. mit Hilfe einer oder mehrerer automatischer Bildverarbeitungen und/oder mit Hilfe eines oder mehrerer ausgeführter Bildselektionsschritte, insbesondere auf Basis der durch die Auswertung erzeugten Auswertedaten, aktualisiert werden.
Grundsätzlich ist es auch möglich, dass die Anzahl der Iterations- bzw. Bestimmungsschritte für die Bestimmung der optischen Parameter lediglich eins beträgt, d.h. dass insgesamt nur ein einziger Iterations- bzw. Bestimmungsschritt erfolgt und somit keine wiederholte oder aktualisierte Bestimmung stattfindet. Dies ist insbesondere dann der Fall, wenn der Benutzer keine manuellen Bildselektionsschritte ausführt, d.h. wenn die Anzahl der vom Benutzer ausgeführten manuellen - Bildselektionsschritte gleich Null ist, und die Bestimmung der optischen Parameter lediglich auf Basis der automatischen Bildverarbeitung erfolgt. Zwar wird in diesem Fall unter Umständen nur eine verhältnismäßig geringe Genauigkeit der bestimmten optischen Parameter erreicht, jedoch erfolgt die Bestimmung der optischen Parameter ohne zusätzliche manuelle Bildselektionen durch den Benutzer und somit sehr schnell.
Führt der Benutzer z.B. genau einen Bildselektionsschritt aus, d.h. beträgt die Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte eins, so ist die Anzahl von Iterationsschritten vorzugsweise gleich zwei. Ist die Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte gleich zwei, so kann die Anzahl von Iterationsschritten, je nach Ausführungsform, gleich eins oder drei sein. Ist die Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte größer als drei, so ist die Anzahl von Iterationsschritten vorzugsweise größer oder gleich drei und insbesondere größer oder gleich fünf.
Das erfindungsgemäße Verfahren ermöglicht dem Benutzer somit durch das Festlegen der Anzahl der von ihm ausgeführten Bildselektionsschritte hinsichtlich Genauigkeit und Schnelligkeit vorteilhafterweise eine hohe Flexibilität. Insbesondere ermöglicht das erfindungsgemäße Verfahren eine schnellere Ermittlung der optischen Parameter unter Berücksichtigung der Genauigkeit. Legt der Benutzer z.B. auf eine möglichst genaue Bestimmung der optischen Parameter wert, so kann er sämtliche vorgegebenen Bildselektionsschritte ausführen. Legt der Benutzer jedoch den Fokus auf eine möglichst schnelle Bestimmung der optischen Parameter oder ist es ausreichend, dass nur einige der optischen Parameter mit einer gewissen Genauigkeit bestimmt werden, so kann der Benutzer das Verfahren beschleunigen, indem er keinen oder nur einen Teil der vorgegebenen manuellen Bildselektionsschritte ausführt. Durch das Festlegen der Anzahl an ausgeführten Bildselektionsschritten kann der Benutzer vorteilhafterweise die Genauigkeit und Schnelligkeit des erfindungsgemäßen Verfahrens bzw. der Bestimmung der optischen Parameter beeinflussen. Dies liegt daran, dass die Genauigkeit des erfindungsgemäßen Verfahrens bzw. der bestimmten optischen Parameter von der Anzahl der vom Benutzer ausgeführten Bildselektionsschritte abhängt. Insbesondere wird mit zunehmender Anzahl an ausgeführten Bildselektionsschritten die Genauigkeit zumindest eines der optischen Parameter erhöht. Mit anderen Worten wird die Genauigkeit des Verfahrens mit zunehmender Anzahl der ausgeführten Bildselektionsschritte sukzessive erhöht. Der Benutzer ist mit dem erfindungsgemäßen Verfahren somit in der Lage, ein für die jeweilige Anwendung optimales Verhältnis von Schnelligkeit und Genauigkeit auszuwählen. Dies ist z.B. dann von Vorteil, wenn es für eine Anwendung gar nicht notwendig ist, dass die optischen Parameter mit der höchstmöglichen Genauigkeit bestimmt werden. Oder auch dann, wenn der Benutzer lediglich solche optischen Parameter bestimmen möchte, die bereits nach der automatischen Bildverarbeitung und/oder nach wenigen manuellen Bildselektionsschritten mit einer ausreichenden Genauigkeit ausgegeben werden.
Zum Erreichen der vollen, durch das Messgerät bzw. Videozentriersystem gegebenen Genauigkeit wird keine zusätzliche Zeit benötigt. Mit der in die Auswertung investierten Zeit wird somit eine optimale Genauigkeit bzw. Qualität der bestimmten optischen Parameter erreicht.
Das Verfahren zum Bestimmen von optischen Parametern eines Probanden mittels eines Videozentriersystems kann insbesondere die folgenden Schritte umfassen:
Erzeugen von Bilddaten zumindest von Teilbereichen eines Systems des Kopfes des Probanden und einer daran in Gebrauchsstellung angeordneten Brille;
iteratives Bestimmen der optischen Parameter durch ein Auswerten der erzeugten Bilddaten, wobei
das Auswerten der erzeugten Bilddaten eine computergestützte automatische Bildverarbeitung der Bilddaten und ein Ausführen einer von einem Benutzer des Videozentriersystems festlegbaren Anzahl einer Vielzahl von vorgegebenen manuellen Bildselektionsschritten umfasst, und wobei
die Genauigkeit und/oder Qualität der bestimmten optischen Parameter von der Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte abhängt. Vorzugsweise erfolgt nach jedem vom Benutzer ausgeführten Bildselektionsschritt ein erneutes Bestimmen bzw. ein Aktualisieren, Verfeinern und/oder Optimieren der optischen Parameter, insbesondere auf Basis des nach dem zuletzt ausgeführten Bildselektionsschritt vorliegenden Auswerteergebnis bzw. der nach dem zuletzt ausgeführten Bildselektionsschritt vorliegenden Auswertedaten.
Vorzugsweise umfasst das Verfahren ferner ein Bereitstellen der bestimmten optischen Parameter. Dabei umfasst der Begriff„Bereitstellen" z.B. ein Anzeigen, ein Ausgeben und/oder ein Zugänglich-machen der bestimmten optischen Parameter, insbesondere mit Hilfe einer Schnittstelle, z.B. für Beratungsprogramme, einer Bestellsoftware oder einer Ablage in einer Datenbank. Mit andern Worten kann die Bereitstellung der Daten in Form einer Anzeige und/oder dem Zugänglich-machen mit Hilfe einer Schnittstelle erfolgen.
In einer bevorzugten Ausführungsform umfassen die mit dem erfindungsgemäßen Verfahren bestimmten optischen Parameter sowohl individuelle Parameter als auch Zentrierdaten.
Individuelle Parameter im Sinne dieser Erfindung sind z.B.: die monokulare Pupillendistanz (PD), d.h. der Abstand zwischen dem Fassungsmittelpunkt und dem Mittelpunkt der Pupille, wenn sich das Auge in Primärstellung befindet; der Hornhautscheitelabstand (HSA), d.h. der Abstand zwischen der Rückfläche des Glases und dem Apex der Hornhaut, gemessen in Blickrichtung senkrecht zur Fassungsebene; die Vorneigung (VN), d.h. der Winkel in der vertikalen Ebene zwischen der optischen Achse des Glases und der Fixierlinie des Auges in Primärposition; der Fassungsscheibenwinkel (FSW), d.h. der Winkel zwischen Fassungsebene und der rechten bzw. linken Scheibenebene; die individuelle Kopfhaltung, d.h. die Kopfneigung und Kopfdrehung. Zentrierdaten im Sinne dieser Erfindung sind z.B.: die Scheibenlänge (SL), d.h. der Abstand zwischen den vertikalen Seiten eines den Fassungsrand umschreibenden Rechtecks; die Scheibenhöhe (SH), d.h. der Abstand zwischen den horizontalen Seiten des den Fassungsrand umschreibenden Rechtecks; - der Abstand zwischen den Gläsern (AzG); die Dezentration des Zentrierpunktes, horizontal (u), d.h. der horizontale Abstand des Zentrierpunktes vom geometrischen Mittelpunkt der Scheibe; - die Dezentration des Zentrierpunktes, vertikal (v), d.h. der vertikale Abstand des Zentrierpunktes vom geometrischen Mittelpunkt der Scheibe;
Zentrierhöhe bzw. Einschleifhöhe (y), d.h. die Strecke vom Bezugspunkt zum unteren Fassungsrand in vertikaler Richtung.
In einer weiteren bevorzugten Ausführungsform ist die Anzahl von Iterationsschritten größer oder gleich drei, wenn die Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte größer als drei ist. In einer weiteren bevorzugten Ausführungsform umfasst das Verfahren ferner ein Bereitstellen von initialen bzw. anfänglichen optischen Parametern, wobei das Bestimmen der optischen Parameter des Probanden auf Basis der bereitgestellten initialen optischen Parameter und zusätzlicher Auswertedaten, welche durch das Auswerten erzeugt werden, erfolgt. Die zusätzlichen Auswertedaten umfassen, wie bereits oben beschrieben, vorzugsweise 3D-Daten bzw. Ortsinformationen im dreidimensionalen Raum von vorbestimmten Punkten des Systems des Kopfes des Probanden und der daran in Gebrauchsstellung angeordneten Brille. Die initialen optischen Parameter, welche vor Beginn der Auswertung bereitgestellt werden, umfassen vorzugsweise geschätzte oder angenommene Werte, insbesondere Standardwerte, für zumindest einen Teil oder für alle der zu bestimmenden optischen Parameter. Beispielsweise können sich die initialen optischen Parameter bzw. die Standardwerte aus Mittelwerten vorangehender Messungen oder als Erfahrungswerte ergeben. Vorzugsweise werden die initialen optischen Parameter bzw. die Standardwerte durch die Auswertung des erfindungsgemäßen Verfahrens, insbesondere mit Hilfe der durch die Auswertung erzeugten Auswertedaten, aktualisiert, verbessert, oder ersetzt.
Die Standardwerte orientieren sich z.B. an den Werten nicht individualisierter Produkte oder entsprechen statistischen Mittelwerten, die vorab gewonnen wurden. Insbesondere für HSA, VN und FSW sind hier sinnvolle Annahmen vorhanden. Bei PD, SL, SH kann die Bestimmung der statistischen Mittelwerte z.B. die folgenden Kriterien berücksichtigen, um eine bessere Übereinstimmung zum final ermittelten Wert zu erhalten:
- der Augenoptiker, bei dem die Messung stattfindet; - die geographische Region, in der die Messung stattfindet;
- das Datum, an dem die Messung stattfindet;
- Alter, Geschlecht, Name des Probanden bzw. Kunden, für den die Messung durchgeführt wird; und/oder
- Daten aus vorhergehenden Messungen für diesen Kunden.
Darüber hinaus können auch aus Ursprungsdaten einer vorhergehenden Messung abgeleitete zusätzliche Hilfsparameter, wie z.B. das Verhältnis SL/SH, oder das Verhältnis der Pupillendistanz zur Einschleifhöhe, bereitgestellt bzw. verwendet werden. Mit solchen Hilfsparametern ist es vorteilhafterweise möglich, auf Basis von bereits vorliegenden Standardwerten weitere initiale optische Parameter bereitzustellen. Alternativ oder zusätzlich können diese Hilfsparameter auch bei der Auswertung der Bilddaten verwendet werden. So kann z.B. über den Hilfsparameter bzw. das Verhältnis SL/SH näherungsweise auf die SH geschlossen werden, wenn die SL bereits näherungsweise bestimmt wurde.
Die initialen optischen Parameter bzw. die Standardwerte können beispielsweise folgendermaßen berücksichtigt werden: Aufgrund von Modeerscheinungen bzw. modischen Idealen sind in einem bestimmten Mode-Zeitraum, welcher z.B. etwa ein Jahr beträgt, bestimmte Fassungsformen beliebt. Somit können sich nach diesem Mode-Zeitraum auch die Mittelwerte der Parameter AzG, SL oder SH ändern. Da dieser Trend in der Regel nur geographisch begrenzt stattfindet, ist eine Änderung der Parameter auch nur lokal (Kontinent, Land, Stadt) zu beobachten. Ein Mittelwert für diese Parameter wird daher vorzugsweise unter Berücksichtigung aller in der lokalen Umgebung gemachten und ausgewerteten Aufnahmen, die nicht älter als z.B. ein Jahr sind, berechnet.
Hinsichtlich der Pupillendistanz könnten z.B. das Geschlecht, sowie das Alter und geographische Informationen über den Standort, an dem die Messung bzw. das erfindungsgemäße Verfahren, d.h. die Bestimmung der optischen Parameter, durchgeführt wird, berücksichtigt bzw. genutzt werden.
Für die Bereitstellung der initialen optischen Daten können somit vorbestimmte Filter auf bereits durchgeführte Messungen, d.h. auf frühere Messergebnisse, angewendet werden. Eine sinnvolle Ermittlung und Anwendung entsprechender Filter auf bereits durchgeführte Messungen ist eine separate Aufgabe der statistischen Datenanalyse. Die Filter können dynamisch sein, d.h. eine Neuberechnung für eine einzelne Messung erfordern, oder aber sich auf ein statisches Modell stützen. Statisch bedeutet in diesem Zusammenhang, dass ein Filter mit den gleichen Daten an verschiedenen Orten und Zeitpunkten zum gleichen Ergebnis kommt. Dynamisch bedeutet, dass der Filter den Ort und/oder die Zeit berücksichtigt. So kann z.B. ein dynamischer Filter, wie oben beschrieben, nur Daten berücksichtigen, die innerhalb eines Jahres rückwirkend vom Messzeitpunkt aus entstanden sind, während ältere Daten ignoriert werden. Im statischen Fall ist eine Neuberechnung notwendig, wenn sich die Datengrundlage ändert, z.B. wenn neue Daten hinzukommen. Im dynamischen Fall ist eine Neuberechnung für jede Messung notwendig, um die sich dynamisch ändernde Datengrundlage zu berücksichtigen.
Weitere vorab bekannte Informationen, wie z.B. die genaue Bezeichnung der vom Probanden ausgewählten bzw. getragenen Brillenfassung in Verbindung mit einem Fassungskatalog, d.h. einer digital vorliegenden Beschreibung der Fassungsform, können ebenso für die Bereitstellung der initialen optischen Parameter genutzt werden.
In einer weiteren bevorzugten Ausführungsform erfolgt das Erzeugen von Biiddaten durch Aufnehmen eines ersten Bildes zumindest von Teilbereichen des Systems des Kopfes des Probanden und einer daran in Gebrauchsstellung angeordneten Brille unter einer ersten Aufnahmerichtung und Aufnehmen eines zweiten Bildes zumindest von Teilbereichen des Systems unter einer zweiten Aufnahmerichtung erfolgt, wobei sich die erste und die zweite Aufnahmerichtung voneinander unterscheiden.
In einer weiteren bevorzugten Ausführungsform beginnt das Auswerten der Bilddaten mit einem Ermitteln von Positionen der Pupillen des Probanden in dem ersten Bild. Insbesondere kann ein erster Auswerteschritt das Ermitteln der Position einer ersten Pupille des Probanden in dem ersten Bild und das Ermitteln der Position einer zweiten Pupille des Probanden in dem ersten Bild umfassen. Unmittelbar darauf, d.h. in einem zweiten Auswerteschritt, der unmittelbar auf den ersten Auswerteschritt folgt, kann ein Ermitteln der Position der ersten Pupille des Probanden in dem zweiten Bild und ein Ermitteln der Position der zweiten Pupille des Probanden in dem zweiten Bild erfolgen. Sowohl der erste Auswertesch ritt als auch der zweite Auswerteschritt umfassen somit jeweils zwei Auswerteunterschritte, nämlich das Ermitteln der Position der ersten Pupille und das Ermitteln der Position der zweiten Pupille. Das Ermitteln von Positionen der Pupillen in dem ersten und zweiten Bild kann jeweils auf Basis einer automatischen Bildverarbeitung und/oder zumindest eines vom Benutzer ausgeführten Bildselektionsschritts erfolgen.
Auf diese Weise wird hinsichtlich der iterativen bzw. aktualisierten Bestimmung der optischen Parameter eine optimale Auswertereihenfolge erreicht. Insbesondere kann durch ein anfängliches Ermitteln der Pupillenpositionen in beiden Aufnahmen bzw. Bildern die Genauigkeit der iterativ bestimmten bzw. bereitgestellten Parameter schnell und effektiv erhöht werden, da bereits zu einem frühen Zeitpunkt SD- Koordinaten erhalten werden. Durch das Ermitteln der Pupillenpositionen in beiden Aufnahmen ist z.B. bereits eine Gesamt-Pupillendistanz bestimmbar, die aktualisiert bereitgestellt werden kann. Insbesondere kann ein initialer Standardwert der Gesamt-Pupillendistanz aktualisiert bzw. ersetzt werden. Bei der Gesamt- Pupillendistanz sind bei einem Stereokamerasystem auch keine weiteren Abhängigkeiten vorhanden, so dass hier bereits die volle Messgenauigkeit erreicht wird. Bei 2D-Projektionsverfahren könnte eine zusätzlich zu ermittelnde Kopfdrehung z.B. als Korrekturwert noch berücksichtigt werden. Aus der Gesamt-Pupillendistanz kann durch Halbierung auch eine aktualisierte Mono-Pupillendistanz bestimmt bzw. bereitgestellt werden. Zusätzlich kann bereits modellbasiert ein HSA-Wert aktualisiert werden.
In einer weiteren bevorzugten Ausführungsform umfasst ein vom Benutzer ausführbarer oder ausgeführter erster Bildselektionsschritt ein manuelles Selektieren von Positionen der Pupillen bzw. Pupillenmitten des Probanden in dem ersten Bild. Zudem umfasst ein vom Benutzer unmittelbar nach dem ersten Bildselektionsschritt ausführbarer oder ausgeführter zweiter Bildselektionsschritt ein manuelles Selektieren von Positionen der Pupillen bzw. der Pupillenmitten des Probanden in dem zweiten Bild. Insbesondere umfasst der erste Bildselektionsschritt einen ersten Bildselektionsunterschritt, nämlich ein manuelles Selektieren der Position der ersten Pupille bzw. Pupillenmitte in dem ersten Bild, und einen zweiten Bildselektionsunterschritt, nämlich ein manuelles Selektieren der Position der zweiten Pupille bzw. Pupillenmitte in dem ersten Bild. Entsprechend umfasst auch der zweite Bildselektionsschritt insbesondere einen ersten Bildselektionsunterschritt, nämlich ein manuelles Selektieren der Position der ersten Pupille bzw. Pupillenmitte in dem zweiten Bild, und einen zweiten Bildselektionsunterschritt, nämlich ein manuelles Selektieren der Position der zweiten Pupille bzw. Pupillenmitte in dem zweiten Bild.
In einer weiteren bevorzugten Ausführungsform umfasst ein vom Benutzer unmittelbar nach dem zweiten Bildselektionsschritt ausführbarer oder ausgeführter dritter Bildselektionsschritt ein manuelles Selektieren von, vorzugsweise temporalen oder besonders bevorzugt nasalen, Fassungsrandpunkten der vom Probanden getragenen Brille in dem ersten Bild. Zudem umfasst ein vom Benutzer unmittelbar nach dem dritten Bildselektionsschritt ausführbarer oder ausgeführter vierter Bildselektionsschritt ein manuelles Selektieren von, vorzugsweise temporalen oder besonders bevorzugt nasalen, Fassungsrandpunkten der vom Probanden getragenen Brille in dem zweiten Bild.
Mit anderen Worten werden nach den Pupillen, welche als erste Selektionselemente bezeichnet werden können, vorzugsweise die temporalen, oder besonders bevorzugt die nasalen Fassungsrandpunkte, als zweites Selektionselement selektiert. Daraus kann eine weitere verbesserte Abschätzung der Mono-PD erfolgen und diese bereitgestellt werden. Eine derartige iterative Bestimmung kann für die restlichen optischen Parameter entsprechend fortgeführt werden. Dabei können die noch nicht final bestimmten optischen Parameter mit jedem weiteren bekannten Messpunkt, d.h. mit jedem weiteren ausgeführten Bildselektionsschritt und/oder automatischen Bildverarbeitungsschritt bzw. mit jedem weiteren ausgeführten Iterationsschritt, nochmal aktualisiert bereitgestellt werden.
In einer weiteren bevorzugten Ausführungsform umfassen ein oder mehrere vom Benutzer unmittelbar nach dem vierten Bildselektionsschritt ausführbare oder ausgeführte Bildselektionsschritte ein manuelles Selektieren von weiteren, insbesondere temporalen, nasalen, unteren und/oder oberen, Fassungsrandpunkten der vom Probanden getragenen Brille in dem ersten und/oder zweiten Bild. In einer weiteren bevorzugten Ausführungsform umfassen weitere vom Benutzer in der angegebenen Reihenfolge ausführbare oder ausgeführte Bildselektionsschritte: ein manuelles Selektieren einer Fassungshorizontale der vom Probanden getragenen Brille in dem ersten Bild,
ein manuelles Selektieren zumindest eines nasal-unteren Kastenmaßes der vom Probanden getragenen Brille in dem ersten Bild, und/oder
ein manuelles Selektieren zumindest eines temporal-oberen Kastenmaßes der vom Probanden getragenen Brille in dem ersten Bild. Vorzugsweise sind zwei nasal-untere Kastenmaße, nämlich eines für das linke und eines für das rechte Brillenglas zu selektierten. Entsprechend sind vorzugsweise zwei temporal-obere Kastenmaße, nämlich eines für das linke und eines für das rechte Brillenglas zu selektierten. In einer weiteren bevorzugten Ausführungsform wird unmittelbar vor jedem ausführbaren manuellen Bildselektionsschritt eine zugehörige automatische Bildverarbeitung ausgeführt. Insbesondere kann durch eine zu einem Bildselektionsschritt zugehörige automatische Bildverarbeitung eine Vorselektion der in dem jeweiligen Bildselektionsschritt zu selektierender Bildelemente erfolgen. Der Benutzer brauch dann lediglich die automatische Vorselektion überprüfen und gegebenenfalls korrigieren. Dies erleichtert somit die Benutzerinteraktion. Vorzugsweise fließen jeweils zur Bestimmung der optischen Parameter unmittelbar vor einem Selektionsschritt alle bis dahin ausgewerteten Daten mit ein. In einer weiteren bevorzugten Ausführungsform erfolgt das iterative Bestimmen der optischen Parameter ferner auf Basis zusätzlicher statistischer Daten, insbesondere auf Basis der oben genannten Hilfsparameter , welche eine Abhängigkeit zwischen zwei oder mehreren der optischen Parameter beschreiben. Beispielsweise können die statistischen Daten eine Abhängigkeit zwischen SL und SH beschreiben. Dies ist z.B. hilfreich, wenn die SL nach Bestimmung der temporalen und nasalen Fassungsrandpunkte bereits weitestgehend ermittelt wurde, für die SH jedoch nur die ursprünglichen Standardwerte bzw. Mittelwerte zur Verfügung stehen. Somit kann die Genauigkeit weiterer optischer Parameter schnell erhöht werden, ohne dass ein zusätzlicher manueller Bildselektionsschritt erforderlich ist. Insbesondere kann die Qualität der automatischen Vorselektion verbessert werden, wodurch die vom Benutzer durchzuführenden Korrekturen weiter reduziert werden.
In einer weiteren bevorzugten Ausführungsform werden die bestimmten optischen Parameter bzw. die aktualisierten optischen Parameter des Probanden mit einer Kennzeichnung über die erwartete Genauigkeit bzw. Qualität der bestimmten optischen Parameter bereitgestellt, d.h. ausgegeben oder angezeigt.
Dies kann bei einer Anzeige z.B. in Form einer Farbkodierung erfolgen, wobei rot einer schlechten Genauigkeit bzw. Qualität, gelb einer mittleren Genauigkeit bzw. Qualität und grün einer guten Genauigkeit bzw. Qualität entspricht. Alternativ kann die Genauigkeit bzw. Qualität der Parameter mittels Kontrast (z.B. weiß auf weiß = schlechte Qualität über grau auf weiß zu schwarz auf weiß = gute Qualität) oder über andere Qualitäts-Kategorisierungen, wie z.B. der Rodenstock-Kategorisierung „Superior/Excellence/Perfection" oder „Gold/Silber/Bronze", für jeden bestimmten optischen Parameter angegeben werden. Bei einer Bereitstellung in einer Schnittstelle zu Beratungsprogrammen oder einer Bestellsoftware kann ein zusätzlicher Wert zum Parameter über dessen Qualität informieren, beispielswese eine Angabe zwischen 0% und 100%. Eine Kennzeichnung kann aber auch ohne explizite Angabe erfolgen, indem sie z.B. im Handbuch beschrieben ist und der Benutzer bzw. Bediener durch dessen Lektüre das Wissen erlangt hat, dass eine Auswertung erst nach vollständiger Durchführung die maximale Genauigkeit erreicht und bei vorzeitigem Abbruch Werte in gewissen Grenzen unbestimmt sind.
In einer weiteren bevorzugten Ausführungsform werden die bestimmten optischen Parameter nach jedem ausgeführten Iterationsschritt, insbesondere nach jeder ausgeführten automatischen Bildverarbeitung und/oder nach jedem ausgeführten Bildselektionsschritt, gegebenenfalls mit einer Angabe über die Genauigkeit bzw. Qualität, angezeigt. Beispielsweise können die bestimmten optischen Parameter auf einem Computerdisplay angezeigt werden. Anhand der angezeigten aktuellen Ergebnisse der optischen Parameter kann der Benutzer leichter entscheiden, ob noch weitere manuelle Bildselektionsschritte notwendig sind, um die Genauigkeit der Parameter weiter zu erhöhen, oder ob die Genauigkeit bereits ausreicht und er deshalb das Bestimmungsverfahren schon vorzeitig abbrechen kann.
Ein weiterer unabhängiger Aspekt zur Lösung der Aufgabe betrifft ein Computerprogrammprodukt umfassend Programmteile, welche wenn geladen in einem Computer, zur Durchführung eines erfindungsgemäßen Verfahrens ausgelegt sind.
Für den oben genannten weiteren unabhängigen Aspekt und insbesondere für diesbezügliche bevorzugte Ausführungsformen gelten auch die vor- oder nachstehend gemachten Ausführungen zu den Ausführungsformen des ersten Aspekts.
Im Folgenden werden einzelne Ausführungsformen zur Lösung der Aufgabe anhand der Figuren beispielhaft beschrieben. Dabei weisen die einzelnen beschriebenen Ausführungsformen zum Teil Merkmale auf, die nicht zwingend erforderlich sind, um den beanspruchten Gegenstand auszuführen, die aber in bestimmten Anwendungsfällen gewünschte Eigenschaften bereit stellen. So sollen auch Ausführungsformen als unter die beschriebene technische Lehre fallend offenbart angesehen werden, die nicht alle Merkmale der im Folgenden beschriebenen Ausführungsformen aufweisen. Ferner werden, um unnötige Wiederholungen zu vermeiden, bestimmte Merkmale nur in Bezug auf einzelne der im Folgenden beschriebenen Ausführungsformen erwähnt. Es wird darauf hingewiesen, dass die einzelnen Ausführungsformen daher nicht nur für sich genommen sondern auch in einer Zusammenschau betrachtet werden sollen. Anhand dieser Zusammenschau wird der Fachmann erkennen, dass einzelne Ausführungsformen auch durch Einbeziehung von einzelnen oder mehreren Merkmalen anderer Ausführungsformen modifiziert werden können. Es wird darauf hingewiesen, dass eine systematische Kombination der einzelnen Ausführungsformen mit einzelnen oder mehreren Merkmalen, die in Bezug auf andere Ausführungsformen beschrieben werden, wünschenswert und sinnvoll sein kann, und daher in Erwägung gezogen und auch als von der Beschreibung umfasst angesehen werden soll.
Kurze Beschreibung der Zeichnungen zeigt ein schematisches Ablaufdiagramm zur Bestimmung von optischen Parametern gemäß einer herkömmlichen Vorgehensweise; Figur 2 zeigt ein schematisches Ablaufdiagramm zur Bestimmung von optischen Parametern gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
Figur 3 zeigt ein schematisches Diagramm zur Auswertereihenfolge bei der Bestimmung von optischen Parametern gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
Figur 4 zeigt beispielhafte Werte von optischen Parametern, welche nach unterschiedlichen Auswerteschritten des erfindungs- gemäßen Verfahrens bestimmt wurden.
Detaillierte Beschreibung der Zeichnungen
Die in der vorliegenden Beschreibung gewählten Lageangaben, wie z.B. oben, unten, seitlich usw. sind jeweils auf die unmittelbar beschriebene sowie dargestellte Figur bezogen und sind bei einer Lageänderung sinngemäß auf die neue Lage zu übertragen.
Die nachfolgende Beschreibung des erfindungsgemäßen Verfahrens bezieht sich beispielhaft auf ein Videozentriersystem, welches zur Aufnahme von stereoskopischen Bildern mit Hilfe einer ersten Kamera und einer zweiten Kamera geeignet ist, d.h. auf ein Videozentriersystem mit einem Stereokamerasystem. Es versteht sich, dass das erfindungsgemäße Verfahren aber auch bei anderen Videozentriersystemen, z.B. Systemen mit nur einer Kamera, anwendbar ist, mit denen sämtliche optische Parameter bestimmt werden können. Wird in dieser Beschreibung von einem„Fassungsrand" gesprochen, so ist dieser Begriff im Falle von randlosen Fassungen durch den Begriff „Brillenglasrand" zu ersetzen.
In den Figuren 1 und 2 bedeutet jeweils„K1 " eine erste Kameraansicht und„K2" eine zweite Kameraansicht. Insbesondere bedeuten„KT ein erstes Kamerabild bzw. ein mit der ersten Kamera aufgenommenes erstes Bild und „K2" ein zweites Kamerabild bzw. ein mit der zweiten Kamera aufgenommenes zweites Bild. Die oberen Kästen beziehen sich jeweils auf eine Benutzerinteraktion bzw. auf einen Bildselektionsschritt und sind daher jeweils mit den durchnummerierten Bezugszeichen „BS" gekennzeichnet. Die Abkürzung „Pupillen K1" des Bildselektionsschritt BS1 bzw. BS10 bedeutet, dass der Benutzer in diesem Schritt die in der ersten Kameraansicht K1 gezeigten Pupillen des Probanden selektieren kann bzw. selektiert. Entsprechend bedeutet z.B. die Abkürzung„Fassungsrand K2" des Bildselektionsschritt BS4 bzw. BS 6, dass der Benutzer in diesem Schritt vorbestimmte Punkte des Fassungsrandes bzw. Brillenglasrandes der in der zweiten Kameraansicht K2 gezeigten Brille des Probanden selektieren kann bzw. selektiert. Die mittleren Kästen beziehen sich jeweils auf eine automatische Bildverarbeitung und sind daher mit den durchnummerierten Bezugszeichen„BV" gekennzeichnet. Die in der Figur 2 verwendete Abkürzung „Bildverarbeitung Fassungsrand ++" bedeutet, dass jeweils ein oder mehrere vorbestimmte Punkte oder Elemente des Fassungs- bzw. Brillenglasrandes, z.B. obere, untere, nasale oder temporale Fassungsrandpunkte bzw. Brillenglasrandpunkte, oder auch eine Fassungshorizontale oder Kastenmaße automatisch detektiert werden. Die unteren Kästen beziehen sich jeweils auf die bestimmten optischen Parameter.
Die Figur 1 zeigt ein schematisches Ablaufdiagramm zur Bestimmung von optischen Parametern gemäß einer herkömmlichen Vorgehensweise. Ausgangspunkt ist zunächst eine Messaufnahme 1 , bei der Bilddaten erzeugt werden, indem ein erstes Bild mit einer ersten Kamera K1 und ein zweites Bild mit einer zweiten Kamera K2 aufgenommen werden. Die erste und die zweite Kamera befinden sich dabei an unterschiedlichen Orten, so dass Bilder des Kopfes des Probanden aus unterschiedlichen Perspektiven, z.B. mit der ersten Kamera K1 von vorne und mit der zweiten Kamera K2 von unten, aufgenommen werden.
Nach der Messaufnahme 1 erfolgt die Auswertung der erzeugten Bilddaten bzw. der aufgenommenen Bilder. Dazu werden zunächst mittels einer computergestützten automatischen Bildverarbeitung BV1 unter Verwendung von entsprechenden Bildbzw. Mustererkennungsalgorithmen sowohl im ersten als auch im zweiten Bild die Pupillen des Probanden detektiert. Anschließend erfolgt eine Benutzerinteraktion bzw. ein vom Benutzer auszuführender Bildselektionsschritt BS1 , bei der bzw. dem der Benutzer die Pupillen des Probanden in dem mit der ersten Kamera K1 aufgenommenen ersten Bild auswählt bzw. selektiert. Danach wird mittels einer weiteren computergestützten automatischen Bildverarbeitung BV2 unter Verwendung von entsprechenden Bild- bzw. Mustererkennungsalgorithmen sowohl im ersten als auch im zweiten Bild der Fassungsrand bzw. der Brillenglasrand der vom Probanden getragenen Brille detektiert. Im Anschluss daran erfolgt eine weitere Benutzerinteraktion bzw. ein weiterer vom Benutzer auszuführender Bildselektionsschritt BS2, bei der bzw. dem der Benutzer vorgegebene Fassungsbzw. Glasrandpunkte der vom Probanden getragenen Brille in dem mit der ersten Kamera K1 aufgenommenen ersten Bild auswählt bzw. selektiert. Schließlich folgen die vom Benutzer auszuführenden interaktiven Bildselektionsschritte BS3 und BS4, welche den Bildselektionsschritten BS1 und BS2 entsprechen mit dem Unterschied, dass die Bildselektionsschritte BS3 und BS4 auf dem zweiten Kamerabild K2 basieren. Mit dem Bildselektionsschritt BS3 selektiert der Benutzer also in dem zweiten Kamerabild K2 die Pupillen des Probanden, während der Benutzer in dem darauffolgenden Bildselektionsschritt BS4 vorgegebene Fassungsrandpunkte bzw. Brillenglasrandpunkte der vom Probanden getragenen Brille in dem zweiten Kamerabild K2 selektiert. Hat der Benutzer die Bildselektionsschritte BS1 bis BS4 ausgeführt, so können aus den dadurch erzeugten Auswertedaten die individuelle Parameter PD, HSA, VN, FSW, Kopfdrehung und Kopfneigung bestimmt werden.
Um auch Zentrierdaten zu bestimmen, müssen weitere Benutzerinteraktionen bzw. Bildselektionsschritte vom Benutzer auf Basis des ersten Kamerabildes K1 vorgenommen werden. Insbesondere muss der Benutzer mit dem Bildselektionsschritt BS5 die Fassungshorizontale und mit dem Bildselektionsschritt BS6 das untere nasale Kastenmaß in dem ersten Kamerabild K1 auswählen bzw. selektieren, damit die Zentrierdaten AzG und y bestimmt werden können. Um auch die Zentrierdaten SL, SH, u und v zu bestimmen, muss der Benutzer ferner den Bildselektionsschritt BS7 ausführen, bei dem er das obere temporale Kastenmaß in dem ersten Kamerabild K1 selektiert.
Bei dem in der Figur 1 dargestellten herkömmlichen Verfahren muss der Benutzer somit sämtliche Bildselektionsschritte BS1 bis BS7 ausführen, um die optischen Parameter, d.h. die individuellen Parameter und die Zentrierdaten, zu bestimmen. Der Benutzer hat folglich beim herkömmlichen Verfahren, abgesehen von der für die einzelnen Bildselektionsschritte benötigten Zeit, keinen Einfluss auf die Schnelligkeit des Verfahrens. Die Figur 2 zeigt ein schematisches Ablaufdiagramm zur Bestimmung von optischen Parametern gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung. Wie auch beim herkömmlichen Verfahren der Figur 1 ist der Ausgangspunkt des Verfahrens eine Messaufnahme 1 , bei der Bilddaten erzeugt werden, indem ein erstes Bild B1 z.B. mit einer ersten Kamera und ein zweites Bild B2 z.B. mit einer zweiten Kamera aufgenommen werden. Ähnlich wie beim herkömmlichen Verfahren sind für die Bestimmung der optischen Parameter auch eine Vielzahl von Benutzerinteraktionsschritten bzw. Bildselektionsschritten BS10 bis BS22 vorgegeben. Im Unterschied zum herkömmlichen Verfahren sind jedoch bei dem erfindungsgemäßen Verfahren sämtliche in der Figur 2 gezeigten Bildselektionsschritte optional, d.h. der Benutzer des Videozentriersystems kann selbst entscheiden, ob und wie viele der vorgegebenen, möglichen Bildselektionsschritte er ausführt. Mit anderen Worten kann er die Anzahl der ausgeführten Bildselektionsschritte festlegen. Mit der Anzahl an ausgeführten Bildselektionsschritten kann der Benutzer insbesondere die Anzahl an ausgeführten Iterationsschritten und/oder die Genauigkeit bzw. Qualität der bestimmten optischen Parameter und damit auch die Schnelligkeit der Parameterbestimmung beeinflussen.
Anders als in der Figur 1 sind in der Figur 2 daher die einzelnen bestimmten optischen Parameter jeweils mit Ziffern in eckigen Klammern versehen. Diese Ziffern beziehen sich auf die Genauigkeit bzw. auf die Qualität der jeweils bestimmten optischen Parameter. Dabei bedeutet:
[1] eine nullte Abschätzung, d.h. eine vollautomatisierte Bestimmung bzw. die Verwendung von initialen optischen Parametern als Grundlage,
[2] eine erste Abschätzung,
[3] eine zweite Abschätzung, und
[4] das Endergebnis.
Die Genauigkeit bzw. Qualität ist also bei mit [1] gekennzeichneten bestimmten optischen Parameter am geringsten und bei mit [4] gekennzeichneten bestimmten optischen Parameter am höchsten. Weiterhin ist die Genauigkeit bzw. Qualität der mit [2] gekennzeichneten bestimmten optischen Parameter geringer als die Genauigkeit bzw. Qualität der mit [3] gekennzeichneten bestimmten optischen Parameter.
Beispielsweise ist es möglich, däss der Benutzer keinen der möglichen Bildselektionsschritte ausführt. In diesem Fall wird lediglich eine computergestützte automatische Bildverarbeitung der erzeugten Bilddaten bzw. der aufgenommenen Bilder durchgeführt. Dabei werden in einem ersten Bildverarbeitungsschritt BV10 sowohl im ersten wie auch im zweiten aufgenommenen Bild die Pupillen des Probanden automatisch detektiert. In einem zweiten Bildverarbeitungsschritt BV12 werden sowohl im ersten wie auch im zweiten aufgenommenen Bild der Fassungsrand bzw. vorgegebene Punkte bzw. Elemente des Fassungsrandes der vom Probanden getragenen Brille unter Verwendung von entsprechenden Bild- bzw. Mustererkennungsalgorithmen detektiert. · Auf Basis der Bildverarbeitungsschritte BV10 und BV12 können bereits alle optischen Parameter vollautomatisch bestimmt und ausgegeben werden. Diese Bestimmung, welche auf nur einem Bestimmungs- bzw. Iterationsschritt basiert, stellt somit für alle optischen Parameter eine nullte Abschätzung dar und entspricht der niedrigsten Genauigkeit.
Die Bestimmung kann insbesondere modellfrei, d.h. ohne jegliche Vorannahmen, erfolgen. Vorzugsweise werden als Ausgangsposition jedoch initiale optische Parameter, d.h. geschätzte Werte bzw. Standardwerte für die zu bestimmenden optischen Parameter, bereitgestellt. Beispielsweise können u.a. folgende Standardwerte verwendet werden: VN = 7°, HSA = 13 mm, FSW = 5°, PD = 64 mm. Bevor eine Benutzerinteraktion stattfindet können diese Modellannahmen bzw. Standardwerte durch eine automatisierte Bildverarbeitung verbessert werden. So kann durch eine Pupillendetektion bereits ein Vorschlag ermittelt werden, wo sich die Pupillen befinden. Auf dieser Basis kann die Gesamt-PD bereits optimiert bereitgestellt werden. Ebenso gilt dies für die weiteren Selektionselemente des Fassungsrandes und der davon abgeleiteten Parameter. Die initialen optischen Parameter können also durch die automatische Bildverarbeitung angepasst bzw. verbessert werden. So können z.B. die initialen optischen Parameter HSA und PD auf Basis der detektierten Pupillen angepasst werden.
Nach dem Bildverarbeitungsschritt BV10 kann der Benutzer einen optionalen Bildselektionsschritt BS10 ausführen, indem er die Pupillen des Probanden in dem ersten Kamerabild K1 selektiert. Nach dieser Benutzerinteraktion können die weiteren Bildverarbeitungsschritte BV14 hinsichtlich der Pupillen und BV16 hinsichtlich des Fassungsrandes ausgeführt werden, so dass schließlich auf Basis der dadurch erzeugten Auswertedaten in einem zweiten Bestimmungsschritt bzw. Iterationsschritt alle ausgegebenen bzw. angezeigten optischen Parameter aktualisiert werden. Der Benutzer kann an dieser Stelle das Bestimmungsverfahren abbrechen, sofern die Genauigkeit der bestimmten optischen Parameter bereits ausreichend ist, oder aber den nächsten vorgegebenen bzw. möglichen Bildselektionsschritt BS12 ausführen.
Führt der Benutzer den Bildselektionsschritt BS12 aus, indem er die Pupillen des Probanden in dem zweiten Kamerabild K2 selektiert, so wird anschließend der Bildverarbeitungsschritt BV18 hinsichtlich des Fassungsrandes durchgeführt. Mit den dadurch erzeugten Auswertedaten können nun wiederum alle bestimmten optischen Parameter aktualisiert werden. Zudem kann die Gesamt-Pupillendistanz bereits mit erhöhter Genauigkeit, d.h. in erster Abschätzung, ausgegeben bzw. angezeigt werden, während jedoch z.B. die Kopfneigung und Kopfdrehung noch auf einer niedrigeren Genauigkeit, nämlich der nullten Abschätzung, beruht. Der Benutzer kann an dieser Stelle das Bestimmungsverfahren abbrechen, sofern die Genauigkeit der bis dahin bestimmten optischen Parameter bereits ausreichend ist, oder aber den nächsten vorgegebenen bzw. möglichen Bildselektionsschritt BS14 ausführen.
Führt der Benutzer den Bildselektionsschritt BS14 aus, indem er einen oder mehrere vorgegebene Fassungsrandpunkte, z.B. nasale Fassungsrandpunkte, der Brille des Probanden in dem ersten Kamerabild K1 selektiert, so wird anschließend ein weiterer Bildverarbeitungsschritt BV20 hinsichtlich des Fassungsrandes durchgeführt. Mit den dadurch erzeugten Auswertedaten können nun wiederum alle bestimmten optischen Parameter aktualisiert werden. Zudem können nach den bisher ausgeführten Schritten z.B. die Mono-Pupillendistanz und der Wert für AzG mit erhöhter Genauigkeit, nämlich in erster Abschätzung, ausgegeben bzw. angezeigt werden. Der Benutzer kann an dieser Stelle das Bestimmungsverfahren abbrechen, sofern die Genauigkeit der bis dahin bestimmten optischen Parameter bereits ausreichend ist, oder aber den nächsten vorgegebenen bzw. möglichen Bildselektionsschritt BS16 ausführen.
Führt der Benutzer den Bildselektionsschritt BS16 aus, indem er den im vorangegangenen Bildselektionsschritt BS14 selektierten Fassungsrandpunkt nunmehr auch in dem zweiten Kamerabild K2 selektiert, so wird anschließend ein weiterer Bildverarbeitungsschritt BV22 hinsichtlich des Fassungsrandes durchgeführt. Der Benutzer kann an dieser Stelle das Bestimmungsverfahren abbrechen, sofern die Genauigkeit der bis dahin bestimmten optischen Parameter bereits ausreichend ist, oder aber den nächsten vorgegebenen bzw. möglichen Bildselektionsschritt ausführen. Insbesondere können an dieser Stelle weitere Bildselektionsschritte und Bildverarbeitungsschritte ausgeführt werden, welche analog zu BS14, BV20, BS16 und BV22 ablaufen, sich jedoch auf weitere vorgegebene Fassungsrandpunkte, insbesondere auf temporale, untere und/oder obere Fassungsrandpunkte beziehen. Vorzugsweise erfolgen diese weiteren Schritte für jeden weiteren vorgegebenen Fassungsrandpunkt jeweils abwechselnd zwischen Kameraansicht 1 und Kameraansicht 2.
Hat der Benutzer z.B. in den Bildselektionsschritten BS14 und BS16 die nasalen, oberen und unteren Fassungsrandpunkte selektiert, so können mit den dadurch erzeugten Auswertedaten nun wiederum alle bestimmten optischen Parameter aktualisiert werden. Insbesondere können nach den bisher ausgeführten Schritten z.B. die Vorneigung, der HSA, die Kopfneigung und die Kopfdrehung mit erhöhter Genauigkeit, nämlich in erster Abschätzung, ausgegeben bzw. angezeigt werden, während jedoch z.B. der Fassungsscheibenwinkel, die Scheibenhöhe SH, die Einschleifhöhe y und der Wert für v noch auf einer niedrigeren Genauigkeit, nämlich der nullten Abschätzung, beruht.
Führt der Benutzer den weiteren vorgegebenen Bildselektionsschritt BS18 aus, indem er die Fassungshorizontale der Brille des Probanden in dem ersten Kamerabild K1 selektiert, so wird anschließend ein weiterer Bildverarbeitungsschritt BV24 hinsichtlich des Fassungsrandes durchgeführt. Mit den dadurch erzeugten Auswertedaten können nun wiederum alle bestimmten optischen Parameter aktualisiert werden. Insbesondere können nach den bisher ausgeführten Schritten z.B. die Gesamt-Pupillendistanz mit weiter erhöhter Genauigkeit, nämlich in zweiter Abschätzung, und die Kopfneigung bereits mit der höchsten Genauigkeit, d.h. als finaler Wert, ausgegeben bzw. angezeigt werden. Der Benutzer kann an dieser Stelle das Bestimmungsverfahren abbrechen, sofern die Genauigkeit der bis dahin bestimmten optischen Parameter bereits ausreichend ist, oder aber den nächsten vorgegebenen bzw. möglichen Bildselektionsschritt BS20 ausführen. Führt der Benutzer den weiteren vorgegebenen Bildselektionsschritt BS20 aus, indem er das untere nasale Kastenmaß der Brille des Probanden in dem ersten Kamerabild K1 selektiert, so wird anschließend ein weiterer Bildverarbeitungsschritt BV26 hinsichtlich des Fassungsrandes durchgeführt. Mit den dadurch erzeugten Auswertedaten können nun wiederum alle bestimmten optischen Parameter aktualisiert werden. Insbesondere können nach den bisher ausgeführten Schritten z.B. die Mono-Pupillendistanz, der HSA, die Vorneigung und der Fassungsscheibenwinkel mit weiter erhöhter Genauigkeit, nämlich in zweiter Abschätzung, und die Einschleifhöhe y sowie der Wert für AzG bereits mit der höchsten Genauigkeit, d.h. als finaler Wert, ausgegeben bzw. angezeigt werden. Der Benutzer kann an dieser Stelle das Bestimmungsverfahren abbrechen, sofern die Genauigkeit der bis dahin bestimmten optischen Parameter bereits ausreichend ist, oder aber den nächsten vorgegebenen bzw. möglichen Bildselektionsschritt BS22 ausführen. Führt der Benutzer den weiteren vorgegebenen Bildselektionsschritt BS22 aus, indem er das obere temporale Kastenmaß der Brille des Probanden in dem ersten Kamerabild K1 selektiert, so können folglich alle optischen Parameter mit höchster Genauigkeit, d.h. als finale Werte, ausgegeben bzw. angezeigt werden. Die Bildverarbeitungsschritte BV12 und BV16 und die damit verbundenen Bestimmungsschritte bzw. Iterationsschritte sind optional, d.h. es kann in einer möglichen Ausführungsform des erfindungsgemäßen Verfahrens vorgegeben werden, dass der Benutzer zumindest die Bildselektionsschritte BS10 und BS12 ausführen muss. In diesem Fall ist also der nach dem Bildverarbeitungsschritt BV 8 folgende Bestimmungsschritt nicht der dritte, sondern der erste Bestimmungsschritt bzw. Iterationsschritt des Bestimmungsverfahrens. Um die Genauigkeit der bereitgestellten Parameter schnell zu erhöhen, hat sich im Rahmen der vorliegenden Erfindung herausgestellt, dass es vorteilhaft ist, im Vergleich zum herkömmlichen Verfahren die Auswertereihenfolge abzuändern, so dass vorteilhafterweise bereits zu einem frühen Zeitpunkt 3Q-Daten erhalten werden können. Insbesondere werden zunächst die Pupillenpositionen in beiden Aufnahmen ermittelt. Daraus ist bereits eine Gesamt-PD bestimmbar, die aktualisiert bereitgestellt werden kann. Hierbei sind bei einem Stereokamerasystem auch keine weiteren Abhängigkeiten vorhanden, so dass hier bereits die volle Messgenauigkeit erreicht ist. Bei 2D Projektionsverfahren könnte eine zusätzlich ermittelte Kopfdrehung z.B. als Korrekturwert noch berücksichtigt werden. Aus der Gesamt-PD kann durch Halbierung auch eine aktualisierte Mono-PD bereitgestellt werden. Zusätzlich kann bereits ein HSA-Wert aktualisiert werden.
Als zweites Selektionselement werden die temporalen oder vorzugsweise die nasalen Fassungsrandpunkte selektiert. Daraus kann eine weitere Abschätzung der Mono-PD erfolgen und diese bereitgestellt werden. Diese Bestimmung kann für die weiteren Werte entsprechend fortgeführt werden. Dabei können die noch nicht final bestimmten Werte mit jedem weiteren bekannten Messpunkt nochmals aktualisiert bereitgestellt werden. Bei dieser aktualisierten Bereitstellung können wiederum statistische Daten einfließen, die eine Abhängigkeit zwischen den Parametern beschreiben, beispielsweise zwischen SL und SH, wenn die SL nach Bestimmung der temporalen und nasalen Fassungsrandpunkte bereits weitestgehend ermittelt wurde, für die SH jedoch nur die ursprünglichen Mittelwerte zur Verfügung stehen.
Die Bereitstellung der bestimmten optischen Parameter erfolgt vorzugsweise mit einer Kennzeichnung über die erwartete Genauigkeit bzw. Qualität der Angaben.
Die Figur 3 zeigt ein schematisches Diagramm zur Auswertereihenfolge bei der Bestimmung von optischen Parametern gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung. Dazu sind beispielhaft insgesamt sieben verschiedene Bildselektionsschritte A bis G mit den vom Benutzer zu selektierenden Punkten bzw. Elementen skizziert, welche nach einer ersten maschinellen Bildvorverarbeitung vom Benutzer ausgeführt werden können. Zudem ist in der dritten Spalte angegeben, in welcher Kameraansicht bzw. in welchen Bildern die jeweiligen Bildselektionsschritte ausgeführt werden. In dem hier gezeigten Beispiel werden die Bildselektionsschritte A bis D jeweils abwechselnd in dem ersten Kamerabild und dem zweiten Kamerabild ausgeführt. Die Bildselektionsschritte E bis G dagegen werden lediglich in dem ersten Kamerabild ausgeführt. Ferner ist in der rechten Spalte der Figur 3 jeweils für einige der optischen Parameter angegeben, in welcher Genauigkeit diese nach den jeweiligen ausgeführten Bildselektionsschritten bestimmt werden können. Ähnlich wie auch in der Figur 2 wird die Genauigkeit der optischen Parameter auch hier durch eine Ziffer von 1 bis 4 hinter jedem optischen Parameter angegeben, wobei 1 die geringste und 4 die höchste Genauigkeit bedeutet. Bereits nach der maschinellen Bildverarbeitung können alle optischen Parameter mit der geringsten Genauigkeit, d.h. in nullter Abschätzung, bestimmt bzw. bereitgestellt werden. In den drauffolgenden Schritten kann die Genauigkeit zumindest einiger der optischen Parameter sukzessive erhöht werden, bis am Ende, d.h. nach dem ausgeführten Bildselektionsschritt G alle Parameter mit der höchsten Genauigkeit bestimmt sind.
In dem Bildselektionsschritt A werden die rechte Pupille 1 1 und die linke Pupille 12 des Probanden in beiden Kamerabildern selektiert. In dem Bildselektionsschritt B werden jeweils der rechte nasale Fassungsrandpunkt 13 und der linke nasale Fassungsrandpunkt 14 der Brille des Probanden in beiden Kamerabildern selektiert. In dem Bildselektionsschritt C werden jeweils der rechte obere Fassungsrandpunkt 15, der linke obere Fassungsrandpunkt 16, der linke untere Fassungsrandpunkt 17 und der rechte untere Fassungsrandpunkt 18 der Brille des Probanden in beiden Kamerabildern selektiert. In dem Bildselektionsschritt D werden jeweils der rechte temporale Fassungsrandpunkt 19 und der linke temporale Fassungsrandpunkt 20 der Brille des Probanden in beiden Kamerabildern selektiert. In dem Bildselektionsschritt E wird die Fassungshorizontale 21 im ersten Kamerabild selektiert. In dem Bildselektionsschritt F werden jeweils das nasale untere Kastenmaß 22 des rechten Brillenglases und das nasale untere Kastenmaß 23 des linken Brillenglases im ersten Kamerabild selektiert. In dem Bildselektionsschritt G werden jeweils das temporale obere Kastenmaß 24 des rechten Brillenglases und das temporale obere Kastenmaß 25 des linken Brillenglases im ersten Kamerabild selektiert. Grundsätzlich können nach jedem ausgeführten Bildselektionsschritt alle noch nicht final bestimmten optischen Parameter durch die zusätzlich gewonnenen Informationen neu bestimmt bzw. aktualisiert werden. Es ist ferner auch möglich, dass die Bildselektionsschritte B, C und D auch in einer anderen als die in der Figur 3 gezeigte Reihenfolge ausgeführt werden.
In der nachfolgenden Tabelle 1 ist eine weitere beispielhafte Abfolge von Bildselektionsschritten gezeigt. Dabei sind in der ersten Spalte die Nummer des Schrittes, in der zweiten Spalte das zu selektierende Selektionselement, in der dritten Spalte die Abhängigkeiten von bereits selektierten Elementen und in der vierten Spalte der zu berechnende zugehörige 3D-Punkt aufgeführt. Die Zahlen 1 und 2 beziehen sich jeweils auf die Kameraansicht, d.h. darauf, ob der Selektionsschritt im ersten oder zweiten Bild ausgeführt wird. Die Bezeichnung „links" und„rechts" bezieht sich jeweils auf die linke und rechte Pupille bzw. auf das linke und rechte Brillenglas.
Tabelle 1 :
Schritt Selektionselement Abhängigkeiten Zugehöriger 3D-Punkt
1 Pupille links 1 - Pupille links
2 Pupille links 2 - Pupille links
3 Pupille rechts 1 - Pupille rechts
4 Pupille rechts 2 - Pupille rechts
5 Fassung nasal links 1 Pupille links 1 Fassung nasal links
Pupille links 2
6 Fassung nasal links 2 Fassung nasal links
Fassung nasal links 1
Fassung temporal links 1 Pupille links 1 Fassung temporal links
Pupille links 2
Fassung temporal links 2 Fassung Fassung temporal links temporal links 1
Fassung oben links 1 Pupille links 1 Fassung oben links
Pupille links 2
Fassung oben links 2 Fassung oben Fassung oben links links 1
Fassung unten links 1 Pupille links 1 ' Fassung unten links
Pupille links 2
Fassung unten links 2 Fassung unten Fassung unten links links 1
Fassung nasal rechts 1 Pupille rechts 1 Fassung nasal rechts
Pupille rechts 2
Fassung nasal rechts 2 Fassung nasal Fassung nasal rechts rechts 1
Fassung temporal rechts 1 Pupille rechts 1 Fassung temp. rechts
Pupille rechts 2
Fassung temporal rechts 2 Fassung Fassung temp. rechts temporal rechts 1
Fassung oben rechts 1 Pupille rechts 1 Fassung oben rechts
Pupille rechts 2
Fassung oben rechts 2 Fassung oben Fassung oben rechts rechts 1
Fassung unten rechts 1 Pupille rechts 1 Fassung unten rechts Pupille rechts 2
20 Fassung unten rechts 2 Fassung unten Fassung unten rechts rechts 1
21 Fassungshorizontale 1
22 Kasten temporal/unten links 1 Fassung alle
23 Kasten nasal/oben links 1 Fassung alle
24 Fassungsform links 1 Fassung alle
25 Fassungsform rechts 1 Fassung alle
Wie aus der Tabelle 1 hervorgeht, erfolgt zuerst eine Selektion und Auswertung der Pupillen. Nach Schritt 4 kann somit bereits die Gesamt-Pupillendistanz bestimmt werden. Als nächstes erfolgt die Selektion und Auswertung von nasalen Fassungsrandpunkten. Dies ermöglicht vorteilhafterweise ein schnelles näherungsweises Bestimmen der monokularen Pupillendistanz. Nach dem achten Schritt kann der Fassungsscheibenwinkel zur PD-Ebene näherungsweise bestimmt werden. Nach dem zwölften Schritt kann die Vorneigung links bestimmt werden, während die Scheibenlänge links, die Scheibenhöhe links und die monokulare Pupillendistanz mit erhöhter Genauigkeit geschätzt werden können. Nach dem zwanzigsten Schritt können näherungsweise die Vorneigung rechts, der Fassungsscheibenwinkel und die monokulare Pupillendistanz bestimmt werden. Nach Schritt 23 können die Scheibenlänge rechts und die Scheibenhöhe links bestimmt werden. In der nachfolgenden Tabelle 2 ist eine alternative beispielhafte Abfolge von Bildselektionsschritten gezeigt. Die Darstellung und die Bezeichnungen entsprechen denen von Tabelle 1. Tabelle 2:
Schritt Selektionselement Abhängigkeiten Zugehöriger 3D-Punkt
1 Pupille links 1 - Pupille links
2 Pupille links 2 - Pupille links
3 Pupille rechts 1 - Pupille rechts
4 Pupille rechts 2 Pupille rechts
5 Fassung nasal links 1 Pupille links 1 Fassung nasal links
Pupille links 2
6 Fassung nasal links 2 Fassung nasal Fassung nasal links links 1
7 Fassung nasal rechts 1 Pupille rechts 1 Fassung nasal rechts
Pupille rechts 2
8 Fassung nasal rechts 2 Fassung nasal Fassung nasal rechts rechts 1
9 Fassung temporal links 1 Pupille links 1 Fassung temporal links
Pupille links 2
10 Fassung temporal links 2 Fassung temporal Fassung temporal links links 1
1 1 Fassung temporal rechts 1 Pupille rechts 1 Fassung temp. rechts
Pupille rechts 2
12 Fassung temporal rechts 2 Fassung temporal Fassung temp. rechts rechts 1
13 Fassung oben links 1 Pupille links 1 Fassung oben links
Pupille links 2
14 Fassung oben links 2 Fassung oben Fassung oben links links 1
15 Fassung oben rechts 1 Pupille rechts 1 Fassung oben rechts
16 Fassung oben rechts 2 Pupille rechts 2 Fassung oben rechts Fassung oben
rechts 1
17 Fassung unten links 1 Pupille links 1 Fassung unten links
Pupille links 2
18 Fassung unten links 2 Fassung unten Fassung unten links
links 1
19 Fassung unten rechts 1 Pupille rechts 1 Fassung unten rechts
Pupille rechts 2
20 Fassung unten rechts 2 Fassung unten Fassung unten rechts rechts 1
21 Fassungshorizontale 1
Kasten temporal/unten
22 Fassung alle
links 1
23 Kasten nasal/oben links 1 Fassung alle
24 Fassungsform links 1 Fassung alle
25 Fassungsform rechts 1 Fassung alle
Wie aus der Tabelle 2 hervorgeht, erfolgt zuerst wieder eine Selektion und Auswertung der Pupillen. Nach Schritt 4 kann somit bereits die Gesamt- Pupillendistanz bestimmt werden. Als nächstes erfolgt, wie auch in Tabelle 1 , die Selektion und Auswertung von nasalen Fassungsrandpunkten. Dies ermöglicht vorteilhafterweise ein schnelles näherungsweises Bestimmen der monokularen Pupillendistanz. Mit dem achten Schritt erfolgt eine Auswertung der temporalen Fassungsrandpunkte, m einen näherungsweise bestimmten FSW näherungsweise zur weiteren Abschätzung der monokularen Pupillendistanz zu verwenden. Nach dem achtzehnten Schritt kann insbesondere die Vorneigung links bestimmt werden.
Zwei Vorteile der Abfolge gemäß Tabelle 1 im Vergleich zu der Abfolge gemäß Tabelle 2 sind z.B. übertragbare Schätzwerte auf der rechten Seite und eine abwechslungsreichere Auswertung mit erkennbarem Zwischenstand, wenn die linke oder rechte Seite fertig selektiert ist.
Gemäß einem weiteren bevorzugten Beispiel kann die Benutzerselektion wie in der folgenden Tabelle 3 gezeigt ablaufen. Die Bezeichnungen der Selektionselemente in der Tabelle 3 entsprechen denen der Tabellen 1 und 2. Wie in der Tabelle 3 dargestellt, wird in zumindest einem von mehreren Darstellungs- bzw. Anzeigeschritten ein computerbasierter Vorschlag von ein oder mehrere Selektionselementen auf einem Bildschirm gleichzeitig dargestellt bzw. angezeigt. Mit anderen Worten erfolgt die gleichzeitige Darstellung bestimmter Selektionselemente auf dem Bildschirm jeweils in einem zugehörigen Darstellungsschritt. Vorzugsweise wird in einem ersten Darstellungsschritt ein computerbasierter Vorschlag für die linke und rechte Pupille in der ersten Kameraansicht dargestellt. Anschließend wird in einem zweiten Darstellungsschritt ein computerbasierter Vorschlag für die linke und rechte Pupille in der zweiten Kameraansicht dargestellt. In einem darauffolgenden dritten Darstellungsschritt wird ein computerbasierter Vorschlag der in der Tabelle 3 angegebenen Selektionselemente der Brillenfassung in der ersten Kameraansicht dargestellt. In einem vierten Darstellungsschritt wird ein computerbasierter Vorschlag der in der Tabelle 3 angegebenen Selektionselemente der Brillenfassung in der zweiten Kameraansicht dargestellt. In einem fünften . Darstellungsschritt wird ein computerbasierter Vorschlag der oberen Fassungshorizontale in der ersten Kameraansicht dargestellt. In einem sechsten Darstellungsschritt wird ein computerbasierter Vorschlag der in der Tabelle 3 angegeben Kastenmaße in der ersten Kameraansicht dargestellt. In einem siebenten Darstellungsschritt wird ein computerbasierter Vorschlag der linken und rechten Fassungsform in der ersten Kameraansicht dargestellt. Bei jedem Darstellungsschritt kann der Benutzer, vorzugsweise in einer beliebigen Reihenfolge oder alternativ auch in einer vorgegebenen Reihenfolge, die jeweiligen Selektionselemente manuell selektieren. Dabei können die vorgeschlagenen Selektionselemente als Orientierungshilfe dienen. Wurden alle Selektionselemente eines Darstellungsschrittes vom Benutzer selektiert, so wird mit dem nächsten Darstellungsschritt fortgefahren. Tabelle 3:
Darstellungsschritt Selektionselement
1 Pupille links 1
Pupille rechts 1
2 Pupille links 2
Pupille rechts 2
3 Fassung oben links 1
Fassung unten links 1
Fassung temporal links 1
Fassung nasal links 1
Fassung oben rechts 1
Fassung unten rechts 1
Fassung temporal rechts 1
Fassung nasal rechts 1
4 Fassung oben links 2
Fassung unten links 2
Fassung temporal links 2
Fassung nasal links 2
Fassung oben rechts 2
Fassung unten rechts 2
Fassung temporal rechts 2
Fassung nasal rechts 2
5 Fassungshorizontale 1
6 Kasten temporal/unten links 1
Kasten nasal/oben links 1 Kasten temporal/unten rechts 1
Kasten nasal/oben rechts 1
7 Fassungsform links 1
Fassungsform rechts 1
Die Figur 4 zeigt beispielhafte Werte von optischen Parametern, welche nach unterschiedlichen Auswerteschritten des erfindungsgemäßen Verfahrens bestimmt wurden. In der ersten Spalte sind initiale optische Parameter als Ausgangspunkt ohne Auswertung gezeigt. Da es sich hierbei lediglich um Schätzwerte handelt, können diese Werte z.B. auf einer Anzeige für den Benutzer in der Farbe „rot" dargestellt werden. Nach Ermittlung der Gesamt-Pupillendistanz können die Werte für PD, SL, SH und AzG aktualisiert bzw. in der Genauigkeit verbessert werden. Die aktualisierten Werte können daher z.B. in der Farbe„orange" dargestellt werden. Nach zusätzlicher Ermittlung der nasalen Fassungsrandpunkte auf Pupillenhöhe können die Werte für PD, HSA und AzG aktualisiert bzw. verbessert werden. Die Werte für HSA können daher z.B. in der Farbe„orange" dargestellt werden. Da für die Parameter PD und AzG bereits die höchste Genauigkeit erreicht ist, können die entsprechenden Werte z.B. in der Farbe„grün" dargestellt werden. Nach zusätzlicher Ermittlung der temporalen Fassungsrand punkte auf Pupillenhöhe können die Werte für HSA, FSW, SL, SH, u und v aktualisiert bzw. verbessert werden. Da zu diesem Zeitpunkt bereits jeweils die höchste Genauigkeit für die Parameter PD, FSW, SL, und AzG erreicht ist, können die entsprechenden Werte z.B. in der Farbe„grün" dargestellt werden. Die Bestimmung der optischen Parameter kann auf diese Weise weiter fortgesetzt werden, bis schließlich sämtliche Parameter mit der höchsten Genauigkeit bestimmt sind und somit in der Farbe„grün" ausgegeben werden.
Bezugszeichenliste
1 Messaufnahme
1 1 rechte Pupille
12 linke Pupille 13 nasaler Fassungsrandpunkt des rechten Brillenglases
14 nasaler Fassungsrandpunkt des linken Brillenglases
15 oberer Fassungsrandpunkt des rechten Brillenglases
16 oberer Fassungsrandpunkt des linken Brillenglases
17 unterer Fassungsrandpunkt des rechten Brillenglases
18 unterer Fassungsrandpunkt des linken Brillenglases
19 temporaler Fassungsrandpunkt des rechten Brillenglases
20 temporaler Fassungsrandpunkt des linken Brillenglases
21 Fassungshorizontale
22 nasales unteres Kastenmaß des rechten Brillenglases
23 nasales unteres Kastenmaß des linken Brillenglases
24 temporales oberes Kastenmaß des rechten Brillenglases
25 temporales oberes Kastenmaß des linken Brillenglases
BV1 Bildverarbeitung Pupillendetektion
BV2 Bildverarbeitung Fassungsranddetektion
BV10 Bildverarbeitung Pupillen
BV12 Bildverarbeitung Fassungsrand++
BV14 Bildverarbeitung Pupillen
BV 6 Bildverarbeitung Fassungsrand++
BV18 Bildverarbeitung Fassungsrand++
BV20 Bildverarbeitung Fassungsrand++
BV22 Bildverarbeitung Fassungsrand++
BV24 Bildverarbeitung Fassungsrand++
BV26 Bildverarbeitung Fassungsrand++
BS1 Bildselektion der Pupillen im Kamerabild 1
BS2 Bildselektion Fassungsrand im Kamerabild 1
BS3 Bildselektion der Pupillen im Kamerabild 2
BS4 Bildselektion Fassungsrand im Kamerabild 2
BS5 Bildselektion Fassungshorizontale im Kamerabild 1
BS6 Bildselektion des nasalen unteren Kastenmaßes im Kamerabild 1
BS7 Bildselektion des temporalen oberen Kastenmaßes im Kamerabild 1
BS10 Bildselektion der Pupillen im Kamerabild 1 BS12 Bildselektion der Pupillen im Kamerabild 2
BS14 Bildselektion Fassungsrand im Kamerabild 1
BS16 Bildselektion Fassungsrand im Kamerabild 2
BS18 Bildselektion Fassungshorizontale im Kamerabild 1
BS20 Bildselektion des nasalen unteren Kastenmaßes im Kamerabild 1
BS22 Bildselektion des temporalen oberen Kastenmaßes im Kamerabild 1

Claims

Patentansprüche
1 . Verfahren zum Bestimmen von optischen Parametern eines Probanden mittels eines Videozentriersystems, umfassend die Schritte:
Erzeugen von Bilddaten (1 ) zumindest von Teilbereichen eines Systems des Kopfes des Probanden und einer daran in Gebrauchsstellung angeordneten Brillenfassung; und
iteratives Bestimmen der optischen Parameter durch ein Auswerten (2) der erzeugten Bilddaten, wobei
das Auswerten (2) der erzeugten Bilddaten eine computergestützte automatische Bildverarbeitung (BV10-BV26) der Bilddaten und ein Ausführen einer von einem Benutzer des Videozentriersystems festlegbaren Anzahl einer Vielzahl von vorgegebenen manuellen Bildselektionsschritten (BS10-BS22) umfasst, und wobei
die Anzahl von Iterationsschritten, welche bei der iterativen Bestimmung der optischen Parameter ausgeführt werden, von der Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte abhängt.
2. Verfahren nach Anspruch 1 , wobei die bestimmten optischen Parameter sowohl individuelle Parameter als auch Zentrierdaten umfassen. 3. Verfahren nach Anspruch 1 oder 2, wobei die Anzahl von Iterationsschritten größer oder gleich drei ist, wenn die Anzahl der vom Benutzer ausgeführten manuellen Bildselektionsschritte größer als drei ist.
4. Verfahren nach einem der vorangehenden Ansprüche, wobei das Verfahren ferner ein Bereitstellen von initialen optischen Parametern umfasst und wobei das Bestimmen der optischen Parameter des Probanden auf Basis der bereitgestellten initialen optischen Parameter und zusätzlicher Auswertedaten, welche durch das Auswerten (2) erzeugt werden, erfolgt.
5. Verfahren nach einem der vorangehenden Ansprüche, wobei das Erzeugen von Bilddaten (1 ) durch Aufnehmen eines ersten Bildes zumindest von Teilbereichen des Systems unter einer ersten Aufnahmerichtung und Aufnehmen eines zweiten Bildes zumindest von Teilbereichen des Systems unter einer zweiten Aufnahmerichtung erfolgt, wobei sich die erste und die zweite Aufnahmerichtung voneinander unterscheiden.
6. Verfahren nach Anspruch 5, wobei das Auswerten (2) der Bilddaten mit einem Ermitteln von Positionen der Pupillen (1 1 , 12) des Probanden in dem ersten Bild beginnt und unmittelbar darauf ein Ermitteln von Positionen der Pupillen des Probanden in dem zweiten Bild erfolgt.
7. Verfahren nach Anspruch 5 oder 6, wobei ein vom Benutzer ausführbarer erster Bildseiektionsschritt (BS10) ein manuelles Selektieren von Positionen der Pupillen (1 1 , 12) des Probanden in dem ersten Bild umfasst, und wobei ein vom Benutzer unmittelbar nach dem ersten Bildseiektionsschritt (BS10) ausführbarer zweiter Bildseiektionsschritt (BS12) ein manuelles Selektieren von Positionen der Pupillen (11 , 12) des Probanden in dem zweiten Bild umfasst.
8. Verfahren nach Anspruch 7, wobei ein vom Benutzer unmittelbar nach dem zweiten Bildseiektionsschritt (BS12) ausführbarer dritter Bildseiektionsschritt (BS14) ein manuelles Selektieren von Fassungsrandpunkten der vom Probanden getragenen Brillenfassung in dem ersten Bild umfasst, und wobei ein vom Benutzer unmittelbar nach dem dritten Bildseiektionsschritt (BS 4) ausführbarer vierter Bildseiektionsschritt (BS16) ein manuelles Selektieren von Fassungsrandpunkten der vom Probanden getragenen Brillenfassung in dem zweiten Bild umfasst. 9. Verfahren nach Anspruch 8, wobei ein oder mehrere vom Benutzer unmittelbar nach dem vierten Bildseiektionsschritt (BS16) ausführbare Bildselektionsschritte ein manuelles Selektieren von weiteren Fassungsrandpunkten der vom Probanden getragenen Brillenfassung in dem ersten und/oder zweiten Bild umfassen.
10. Verfahren nach Anspruch 9,
wobei weitere vom Benutzer in der angegebenen Reihenfolge ausführbare Bildselektionsschritte (BS18-BS22) umfassen:
ein manuelles Selektieren einer Fassungshorizontale (21 ) der vom
Probanden getragenen Brillenfassung in dem ersten Bild,
ein manuelles Selektieren zumindest eines nasal-unteren Kastenmaßes (22, 23) der vom Probanden getragenen Brillenfassung in dem ersten Bild, und
ein manuelles Selektieren zumindest eines temporal-oberen Kastenmaßes (24, 25) der vom Probanden getragenen Brillenfassung in dem ersten Bild.
11. Verfahren nach einem der vorangehenden Ansprüche, wobei unmittelbar vor jedem ausführbaren manuellen Bildselektionsschritt eine zugehörige automatische Bildverarbeitung ausgeführt wird.
12. Verfahren nach einem der vorangehenden Ansprüche, wobei das iterative Bestimmen der optischen Parameter ferner auf Basis zusätzlicher statistischer Daten, welche eine Abhängigkeit zwischen zwei oder mehreren der optischen Parameter beschreiben, erfolgt.
13. Verfahren nach einem der vorangehenden Ansprüche, wobei die bestimmten optischen Parameter des Probanden mit einer Kennzeichnung über die erwartete Genauigkeit der bestimmten optischen Parameter bereitgestellt werden. 4. Verfahren nach einem der vorangehenden Ansprüche, wobei die bestimmten optischen Parameter nach jedem ausgeführten Iterationsschritt angezeigt werden.
15. Computerprogrammprodukt umfassend Programmteile, welche wenn geladen in einem Computer, zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche ausgelegt sind.
PCT/EP2017/000338 2016-04-12 2017-03-15 Verfahren zum bestimmen von optischen parametern eines probanden und computerprogrammprodukt zum durchführen des verfahrens WO2017178092A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17713579.5A EP3443409A1 (de) 2016-04-12 2017-03-15 Verfahren zum bestimmen von optischen parametern eines probanden und computerprogrammprodukt zum durchführen des verfahrens
IL262300A IL262300A (en) 2016-04-12 2018-10-11 Method for determining optical parameters of a test subject and computer program product for performing the method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016004430.6 2016-04-12
DE102016004430.6A DE102016004430A1 (de) 2016-04-12 2016-04-12 Verfahren zum Bestimmen von optischen Parametern eines Probanden und Computerprogrammprodukt zum Durchführen des Verfahrens

Publications (1)

Publication Number Publication Date
WO2017178092A1 true WO2017178092A1 (de) 2017-10-19

Family

ID=58413048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/000338 WO2017178092A1 (de) 2016-04-12 2017-03-15 Verfahren zum bestimmen von optischen parametern eines probanden und computerprogrammprodukt zum durchführen des verfahrens

Country Status (4)

Country Link
EP (1) EP3443409A1 (de)
DE (1) DE102016004430A1 (de)
IL (1) IL262300A (de)
WO (1) WO2017178092A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3702831A1 (de) * 2019-03-01 2020-09-02 Carl Zeiss Vision International GmbH Datensatz zur verwendung in einem verfahren zur herstellung eines brillenglases
EP3944004A1 (de) 2020-07-23 2022-01-26 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur erzeugung von daten zur herstellung mindestens eines brillenglases und verfahren zur herstellung einer brille

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009004383A1 (de) * 2008-01-10 2009-07-23 Rodenstock Gmbh Auswertevorrichtung, Auswerteverfahren und Computerprogrammprodukt
DE102008012268A1 (de) * 2008-03-03 2009-09-10 Rodenstock Gmbh Vorrichtung, Verwendung, Verfahren und Computerprogrammprodukt zum dreidimensionalen Darstellen von Darstellungsbilddaten
EP1844363B1 (de) 2005-01-26 2011-09-28 Rodenstock GmbH Vorrichtung und verfahren zum bestimmen von optischen parametern eines benutzers, computerprogrammprodukt
DE102011115239A1 (de) * 2011-09-28 2013-03-28 Rodenstock Gmbh Bestimmung der Scheibenform unter Berücksichtigung von Tracerdaten
DE102013010684A1 (de) * 2013-06-26 2014-12-31 Rodenstock Gmbh Ein Verfahren und eine Messvorrichtung zur verbesserten Erfassung von Fassungsparametern einer Brillenfassung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1844363B1 (de) 2005-01-26 2011-09-28 Rodenstock GmbH Vorrichtung und verfahren zum bestimmen von optischen parametern eines benutzers, computerprogrammprodukt
DE102009004383A1 (de) * 2008-01-10 2009-07-23 Rodenstock Gmbh Auswertevorrichtung, Auswerteverfahren und Computerprogrammprodukt
DE102008012268A1 (de) * 2008-03-03 2009-09-10 Rodenstock Gmbh Vorrichtung, Verwendung, Verfahren und Computerprogrammprodukt zum dreidimensionalen Darstellen von Darstellungsbilddaten
DE102011115239A1 (de) * 2011-09-28 2013-03-28 Rodenstock Gmbh Bestimmung der Scheibenform unter Berücksichtigung von Tracerdaten
DE102013010684A1 (de) * 2013-06-26 2014-12-31 Rodenstock Gmbh Ein Verfahren und eine Messvorrichtung zur verbesserten Erfassung von Fassungsparametern einer Brillenfassung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DR. ROLAND ENDERS: "Die Optik des Auges und der Sehhilfen", 1995, OPTISCHE FACHVERÖFFENTLICHUNG GMBH
HEINZ DIEPES; RALF BLENDOWKSI: "Optik und Technik der Brille", 2002, VERLAG OPTISCHE FACHVERÖFFENTLICHUNGEN GMBH

Also Published As

Publication number Publication date
EP3443409A1 (de) 2019-02-20
IL262300A (en) 2018-11-29
DE102016004430A1 (de) 2017-10-12

Similar Documents

Publication Publication Date Title
EP2282232B1 (de) Verwendung einer Vorrichtung zum Bestimmen von optischen Parametern eines Benutzers
EP2115524B1 (de) Verfahren zur berechnung eines brillenglases mit variabler lage der bezugspunkte
EP2115526B1 (de) Bezugspunkte für orthostellung
EP2115525B1 (de) Flexibler gleitsichtglasoptimierer
DE102011115239B4 (de) Bestimmung der Scheibenform unter Berücksichtigung von Tracerdaten
DE102018121742B4 (de) Verfahren und System zur virtuellen anatomischen Anpassung einer Brille
EP3183616B1 (de) Ermittlung von benutzerdaten unter berücksichtigung von bilddaten einer ausgewählten brillenfassung
DE102011054833A1 (de) Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
DE102006033491A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Trageposition einer Brille, Computerprogrammvorrichtung
EP3730998A1 (de) Bestimmung mindestens eines optischen parameters eines brillenglases
EP3422087B1 (de) Verfahren zur korrektur von zentrierparametern und/oder einer achslage sowie entsprechendes computerprogramm und verfahren
EP3635478B1 (de) Verfahren, vorrichtungen und computerprogramm zum bestimmen eines nah-durchblickpunktes
WO2016062363A1 (de) Vorrichtung und verfahren zum bestimmen von optischen parametern
EP2767862A1 (de) Verordnungs- und individualisierungsabhängige Anpassung der Objektabstandsfunktion an veränderte Objektabstände für die Nähe und/oder Ferne
DE10140656A1 (de) Verfahren zum Entwerfen und Optimieren eines individuellen Brillenglases
DE60206342T2 (de) Verfahren zur Beurteilung der binokularen Eigenschaften von Brillengläsern, Vorrichtung zur Anzeige dieser Eigenschaften und zugehöriger Apparat
EP3574370A1 (de) Computerimplementiertes verfahren zur bestimmung einer repräsentation eines brillenfassungsrands oder einer repräsentation der ränder der gläser einer brille
WO2017178092A1 (de) Verfahren zum bestimmen von optischen parametern eines probanden und computerprogrammprodukt zum durchführen des verfahrens
WO2012022380A1 (de) Verfahren und einrichtung zur bestimmung des augenabstandes von personen
EP3931628A1 (de) Datensatz zur verwendung in einem verfahren zur herstellung eines brillenglases
EP4185920B1 (de) Computerimplementiertes verfahren zur erzeugung von daten zur herstellung mindestens eines brillenglases und verfahren zur herstellung einer brille
DE102005063668B3 (de) Vorrichtung und Verfahren zum Bestimmen von optischen Parametern eines Benutzers; Computerprogrammprodukt

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017713579

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017713579

Country of ref document: EP

Effective date: 20181112

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17713579

Country of ref document: EP

Kind code of ref document: A1