EP3814872A1 - Verfahren zum kalibrieren eines eye-tracking-systems, verfahren zur auswertung des verhaltens einer person mittels eines eye-tracking-systems sowie eye-tracking-system und kraftfahrzeug mit einem solchen eye-tracking-system - Google Patents

Verfahren zum kalibrieren eines eye-tracking-systems, verfahren zur auswertung des verhaltens einer person mittels eines eye-tracking-systems sowie eye-tracking-system und kraftfahrzeug mit einem solchen eye-tracking-system

Info

Publication number
EP3814872A1
EP3814872A1 EP18737837.7A EP18737837A EP3814872A1 EP 3814872 A1 EP3814872 A1 EP 3814872A1 EP 18737837 A EP18737837 A EP 18737837A EP 3814872 A1 EP3814872 A1 EP 3814872A1
Authority
EP
European Patent Office
Prior art keywords
path
eye
gaze
determined
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18737837.7A
Other languages
English (en)
French (fr)
Inventor
Thomas KÜBLER
Wolfgang FUHL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eberhard Karls Universitaet Tuebingen
Original Assignee
Eberhard Karls Universitaet Tuebingen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eberhard Karls Universitaet Tuebingen filed Critical Eberhard Karls Universitaet Tuebingen
Publication of EP3814872A1 publication Critical patent/EP3814872A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Definitions

  • the invention relates to the field of eye tracking, that is to say the detection and evaluation of the eyes and eye movement of an observed person by means of a camera and an evaluation unit connected thereto.
  • the invention relates in particular to a method for calibrating an eye-T racking system and the use of the eye-T racking system calibrated in this way for evaluating the behavior of a person.
  • the invention also relates to an appropriately trained eye-T racking system.
  • this relates in particular to the detection of a vehicle driver or aircraft driver by an eye-T racking system provided in a vehicle or aircraft.
  • eye-T racking is used in particular to determine the current activity of the driver or aircraft operator or to assess his concentration.
  • the reliable detection of features of the eye that are characteristic of the viewing direction by a camera system in a vehicle or aircraft is also subject to inaccuracies due to, for example, changing lighting conditions. It has therefore already been proposed to use multiple cameras or particularly high-resolution cameras. Such a configuration of a camera system is comparatively expensive.
  • the state of the art also includes the article "SubsMatch 2.0: Scanpath comparison and Classification based on sequence frequencies” by Thomas C.deer, Colleen Rothe, Ulrich Schiefer and Wolfgang Rosenstiel (Behavior Research Methods (2017) 49: 1048-1064). It describes how the evaluation of a person's eye movement can take place by dividing the eye movement or the gaze path resulting from the change in the direction of view into short sections. The evaluation is then carried out on the basis of these subsections, the occurrence of which is counted in a glance path of a given length of time and a classification is derived from this.
  • the object of the invention is to provide a possibility for improved calibration of an eye tracking system and, based on this, an improved possibility for evaluating the detected eye movements, in particular for use in a vehicle or aircraft.
  • a method for calibrating an eye-T racking system is proposed which fulfills the following features and which is intended in particular for use in the eye-T racking system of a motor vehicle.
  • the method according to the invention provides that the eyes of a person, in particular a driver of a motor vehicle, are recorded by means of a camera system and the direction of the person's view is determined on the basis of optically recorded features. The chronological course of these viewing directions results in a viewing path.
  • This view path is imprecise due to a variety of causes and therefore cannot be used directly to use a processing unit to determine what the driver is looking at or how his concentration or readiness to take over are to be assessed.
  • These causes include a variable sitting position, differences in the optically recorded features that are used to determine the direction of view, and a limited resolution of the camera used.
  • the calibration aims to compensate for the individual influencing factors mentioned.
  • the captured gaze path is formed by gaze directions that follow one another in time from the eye-T racking system, wherein it is preferably supplemented by the current gaze direction according to a predetermined frequency.
  • the viewing directions recorded with the predetermined frequency form the nodes of the recorded viewing path connected by edges.
  • bundles of gaze paths of frequently used partial paths of the ascertained gaze path are then determined by means of clustering.
  • This clustering means that similar partial paths of the gaze path, along which a change of direction of view has taken place, are identified as belonging together, so that the large number of recorded partial paths are traced back to a smaller number of bundles of partial paths, the typical gaze direction. Change of direction or partial sections thereof, for example the change from a view of the street in front of the vehicle to the side mirror.
  • eye path bundles determined by clustering are in turn used according to the invention in order to derive correction parameters which can be used for the later normalization of further detected eye paths for data standardization, as will be explained in more detail below.
  • the method according to the invention for calibrating an eye tracking system is therefore distinguished by the fact that it does not require a separate calibration phase, but rather uses the viewing directions of the person, in particular the driver of the vehicle in normal driving operation of the vehicle, for the calibration.
  • the gaze directions or the resulting gaze path are not used directly to derive correction parameters, since these are not suitable for direct calibration. Instead, the bundles of eye paths determined by clustering are used. Clustering means that a coarse network with fewer edges and knots is created from a fine network, which forms the captured gaze path.
  • This coarse network of bundled partial paths is well suited for evaluation in the course of calibration. It is hereby possible to determine to what extent there are deviations from the reference network by means of a comparison with a rough reference network formed from reference data.
  • the evaluation of the viewing direction to form viewing paths for the subsequent clustering is preferably carried out by evaluating images captured by the camera system in such a way that the eyes of the captured person and their pupils are localized and a vector representing the viewing direction is derived from this.
  • the optically recorded features for determining this line of sight include the detection of a pupil center of the person, the detection of a pupil contour of the person, the detection of an eye contour of the person, the detection of an iris contour of the person, the detection of an eyelid of the person and / or the detection of reflexes on a person's cornea.
  • the determined vector is preferably used together with an imaginary (virtual) projection surface in order to determine the viewing direction used to generate the viewing path in the manner of two-dimensional coordinates. This determines where the gaze vector crosses the imaginary projection surface.
  • the calibration procedure described here can also be done with more than two parameters or coordinates describing the viewing direction of the observed person are used.
  • the correction parameters which are determined can be, for example, a total of five parameters which describe the deviation of the coarse network formed by clustering from a reference network with regard to horizontal displacement, vertical displacement, Describe horizontal scaling, vertical scaling and rotation.
  • the clustering is preferably carried out by means of the following process steps, these process steps in particular preferably being carried out several times.
  • the above-mentioned fine network which forms the captured view path, forms the input data.
  • the target data of the previous run forms the input data for the next run.
  • the eye path is recalculated in a first part step, hereinafter referred to as “resampling”.
  • the gaze path i.e. either the gaze path previously determined by the camera or a resulting gaze path generated in a previous clustering run, remains essentially unchanged, but the nodes are set again, so that their distance on the gaze path no longer differs depends on the speed of the change in viewing direction.
  • the nodes can be arranged at an identical distance on the gaze path.
  • the gaze path can also be smoothed at the same time.
  • a density map (heat map) is generated.
  • the nodes of the line of sight on the imaginary projection surface mentioned are preferably used.
  • the density map therefore shows how many nodes are located in a preferably square area of the imaginary projection area relative to the other square areas of the imaginary projection area.
  • the density map can also be based on the edges of the viewing path.
  • the resampled gaze path which was generated in the first sub-step, is modified by moving the nodes or at least some of the nodes in the direction of one local maximum of the density map are shifted, for example by 10% of the distance between the position of the node and the local maximum.
  • the result is a modified view path that shows the target data of the passage.
  • This modified view path can then be used in order to be subjected again to the above-mentioned method with the three method steps.
  • clustering with resampling, creating a density map and moving nodes should be carried out between 5 and 400 times, preferably between 10 and 200 times.
  • resampling may be omitted if the nodes were previously formed by viewing directions that were approximately the same distance apart (see above) when the viewing path was created.
  • the evaluation of the determined eye path bundle for deriving the correction parameters is preferably carried out by a comparison with stored reference values, in particular by linear optimization.
  • the reference values can in particular form a coarse reference network of edges and nodes, which is also considered to be given if the reference values can be transformed into a reference network.
  • This reference network can be compared with the rough network of partial paths of the resulting gaze path after clustering, in particular by means of the linear optimization mentioned. In this way, the correction parameters can be determined, by means of which the determined eye path bundles can be converted into the reference values.
  • the correction parameters determined by means of the described calibration method allow them to be used after determination in order to standardize the driver's line of sight in calibrated operation in such a way that it can subsequently be evaluated.
  • the calibration described in particular with the clustering method described in detail, allows a comparatively inexpensive camera system to be used which detects the face of the person being observed in the near infrared spectral range (wavelength range: 780 nm to 1000 nm). Usually one camera is sufficient to achieve sufficiently good results.
  • the comparatively low demands on the camera technology used are made possible by the calibration method described, since this compensates for inaccuracies caused by the camera, among other things, by determining the correction parameters mentioned.
  • the camera When installed in a vehicle, the camera is preferably positioned in the area of the dashboard, the A-pillar or above the windshield.
  • the camera is preferably positioned in the area of the dashboard, the A-pillar or above the windshield.
  • integration into glasses is also possible and can be advantageous depending on the application.
  • the invention also encompasses a method for evaluating the behavior of a vehicle driver by means of an eye tracking system, within the scope of which the calibration method described is used.
  • the directions of sight recorded after the calibration by means of the camera system or the gaze paths determined therefrom are standardized by means of the determined correction parameters and can then be evaluated by comparison with reference values in order to permit an assessment of the behavior of the observed person.
  • TOI Transitions Of Interest
  • a standardized gaze path is determined based on the standardized gaze directions, which shows the course of the gaze direction and its change over time.
  • this gaze path can span a limited period of time just past, which is particularly meaningful for the assessment of the observed person, in particular the driver of the vehicle. So it is considered expedient, a past period between 5 seconds and 300 seconds in length, in particular between 15 seconds and 60 seconds in length.
  • the gaze path standardized by the correction parameters or a simplified standardized gaze path derived therefrom is subdivided into partial sections. These subsections of the gaze path preferably include the gaze directions of a defined period, in particular a period between 0.1 second and 1.0 second. The sections overlap each other preferentially, instead of being flush against each other.
  • the standardized gaze path is preferably not subdivided directly into sub-sections, but rather the aforementioned simplified standardized gaze path.
  • This can be generated by moving the standardized view path in the direction of a structure defined by reference data or by projecting onto it, so that the nodes of the standardized view path which are shifted lie directly on a structure which is defined by the reference data. This ensures that the subsections also lie on this structure and thus the further evaluation steps are simplified.
  • the further evaluation steps include in particular a step in which occurrences of matching or similar subsections are counted.
  • the values determined in this way can be used as the input variable of a trained machine learning system, for example a “Support Vector Machine”, which assigns an evaluation result to the specific count values for different sections.
  • Such an evaluation result can have different types depending on the training of the machine learning system. In this way, a conclusion can be drawn about the activity of the observed person, which is then assessed for appropriateness against the background of the current street situation. Alternatively, however, the evaluation result can also be a value which quantifies the willingness of the observed person to take over, for example a period within which the observed person, judged from the previous line of sight, is likely to be able to take control of the vehicle again.
  • Such a numerical value can then be compared with a corresponding period of time which relates to the autonomous driving functions of a vehicle and predicts how long, based on the current traffic situation, the autonomous driving functions can still guarantee safe driving without the driver's intervention. As soon as the predicted takeover time of the driver approaches or falls short of the specified safe period of the autonomous driving functions, the driver can be warned, for example by an acoustic, tactical or visual warning.
  • the invention also relates to the eye tracking system itself, which is equipped with a camera system and an evaluation unit.
  • this evaluation unit is designed to carry out the calibration method described above.
  • the evaluation unit is preferably further designed to carry out the described method for determining the behavior of a person on the basis of the calibrated eye-tracking system and to give acoustic, haptic or visual warnings if necessary.
  • the invention also relates to a motor vehicle or an aircraft which is equipped with such an eye-T racking system.
  • the camera of such an eye-T racking system is preferably firmly integrated into the vehicle, in particular in the area of the dashboard, the A-pillar or above the windshield, and is directed towards the driver. The same applies to an aircraft.
  • a mobile system in which the camera for detecting the eyes is integrated in a head-attached structure, in particular in the form of glasses. These glasses are then to be located in the room in addition to allow, in the manner shown, the driver's line of sight to be determined in an imaginary projection plane.
  • the glasses can be located in the room by another camera, which is either also provided on the glasses or is permanently integrated in the vehicle.
  • Fig. 1 shows the interior of a passenger car including the eye tracking system as well as the head of the driver and typical gaze vectors.
  • FIG. 2 is a representation based on FIG. 1, which clarifies the determination of viewing directions through the intersection of the viewing vectors with an imaginary projection surface.
  • 3 shows a gaze path determined for the purpose of calibration.
  • 4A and 4B show the resampling of a section of the ascertained gaze path for the purpose of a clusters process.
  • Fig. 5 shows the entire resampled view path in a partial section of the imaginary projection surface.
  • FIG. 6 shows a density map that is created on the basis of the resampled gaze path.
  • 7A and 7B show the clustering based on the displacement of nodes of the resampled gaze path in the direction of local maxima and the resulting modified gaze path.
  • FIG. 9 illustrates the derivation of correction parameters by comparing the determined path bundles with reference values.
  • 10 shows the vehicle interior together with an eye path determined by the previously calibrated eye tracking system and the eye path standardized therefrom on the basis of the correction parameters.
  • 11 shows the ascertained gaze path in the imaginary projection surface and the reference structure created on the basis of the reference values of the system.
  • 13A to 13D show the breakdown of the standardized gaze path and generated by projection onto the reference structure into sub-segments for subsequent evaluation.
  • FIG. 1 shows a cockpit of a passenger car with an eye tracking system 10, comprising a camera 12 which is attached in such a way that it can capture a vehicle driver 2 and in particular his eyes 3.
  • the camera 12 is designed such that it can always or at least almost always capture the driver's eyes regardless of the specific size and head position of the vehicle driver.
  • the camera 12, which is designed to capture the image in the near infrared spectral range, is connected to an electronic evaluation unit 14, which is only shown schematically and is designed to evaluate the image captured by the camera 12 and to carry out the methods described below. Even if the evaluation unit 14 is designed as a separate component in FIG. 1, it can of course also be part of an on-board computer instead.
  • the evaluation unit 14 can, in particular, be connected directly or indirectly to signaling means, such as a loudspeaker 16, in order to be able to give signals to the driver 2 when necessary.
  • signaling means such as a loudspeaker 16
  • the vehicle driver 2 looks at various things while driving, which is illustrated in FIG. 1 by a plurality of gaze vectors 20.
  • this also includes various other vehicle-owned objects such as the exterior mirror, the interior mirror, the navigation device or the radio, the instruments behind the steering wheel or other parts of the vehicle such as the passenger seat.
  • the eye tracking system 10 continuously records images of the vehicle driver 2 by means of the camera 12 and forwards them to the evaluation unit 14 mentioned.
  • This evaluation unit 14 recognizes the the current gaze vector 20, for which purpose it detects the eye position and the pupil position. Optically detectable features that can be used for this purpose are generally known.
  • the gaze vector 20 that is recognized in each case is not recognized absolutely error-free due to simple camera technology and variability in the person and seating position of the driver. However, due to the calibration procedure described below, this is hardly significant.
  • the evaluation unit 14 derives from the gaze vectors 20, which can be described, for example, by three coordinates and two angles, gaze directions 22, which in the case of the exemplary embodiment of the invention are formed by the intersection between the gaze vector 20 with an imaginary projection surface 30 and thus in Two coordinates. These two coordinates (X, Y) are used for further processing in this specific exemplary embodiment.
  • This form of determining gaze directions 22 is not error-free, since a gaze direction determined in this way could result identically from different gaze vectors 20 when the head position of the vehicle driver 2 changes. However, since the head of the driver 2 is only slightly shifted up and down or to the right and left in practice, this imprecision does not play a role in practice.
  • the temporal course of the viewing directions 22 leads to the viewing path 24 shown in the imaginary projection surface 30 of FIG. 2.
  • This gaze path 24 forms the starting point for the calibration of the Eye-T racking system.
  • the eye-T racking system 10 can, for example, observe the line of sight 22 over a defined period of a few minutes and determine the line of sight 24 therefrom.
  • the viewing direction is preferably determined at a fixed frequency, for example at a frequency of 50 Hz.
  • FIG. 3 shows the ascertained gaze path 24 on the imaginary projection surface 30 and a partial area 32 that is considered in more detail.
  • the exemplary gaze path 24 shown here is compared to a real gaze path that was determined over a few minutes for the purpose of better comprehension Simplified the framework of this description. Nevertheless, it shows that the gaze path 24 usually has recognizable sections which are used particularly frequently, but which of course do not naturally have the exact same course.
  • a step of clustering then takes place, that is, a simplification of the gaze path by combining or merging the like. In the present case, this is done by means of the sequence that can be seen in FIGS.
  • the nodes 25 of the viewing path which are also variably spaced apart due to the originally variable speed of the change in viewing direction, are newly set by resampling. Areas to which the driver 2 has focused his gaze for a long time without significantly changing the gaze direction 20 are thereby possibly simplified.
  • 4B shows a partial section of the resampled gaze path 24 ′.
  • a density map 40 (fleat map) is generated.
  • the imaginary projection surface 30 is subdivided into square partial areas.
  • the density map shown in FIG. 6 represents a rough simplification since the number of sub-areas is quite small. In practice, it is advantageous to create a density map with a higher resolution. The differentiation of only five different weightings in FIG. 5 is also a simplification compared to practice.
  • Local maxima result from the density map 40.
  • the nodes 25 ′ of the viewing path are shifted. These are shifted in the direction of a local maximum, alternatives also being conceivable in which the nodes are influenced in a weighted manner by several local maxima during the shift.
  • the shifted nodes 25 ′′ are shown in FIGS. 7A and 7B as open circles. This defines a modified gaze path 24 ′′, which is shown in FIG. 7B.
  • the aforementioned steps of clustering, ie the resampling, the generation of the density map 40 and the displacement of the nodes 25 'in the direction of at least one local maximum, are preferably carried out multiple times, with a number of runs between 10 and 200 being considered particularly expedient.
  • This structure only consists of comparatively little different nodes.
  • the subsections of the gaze path are quasi bundled in this structure, that is, they form the gaze path bundles shown.
  • the line strength in FIG. 7 reflects how many of the respective subsections in the modified gaze path are contained in the respective gaze path bundles.
  • FIG. 8 is used to derive correction parameters from their differences from reference values, which in the present case form a reference structure 28.
  • reference values which in the present case form a reference structure 28.
  • FIG. 9 the bundles of gaze paths 26 of FIG. 7 are shown in broken lines. Also shown in FIG. 9 is the reference structure 28 formed from the reference values.
  • the eye tracking system 10 can normalize the gaze directions 122 or gaze paths 124 subsequently acquired by means of this correction parameter, that is to say convert the gaze directions 122 in such a way that they are suitable for further processing.
  • This subsequent operation of the eye tracking system 10 calibrated by the determination of the correction parameters can serve, in particular, the purpose of evaluating the viewing direction of the vehicle driver 2 in such a way that its concentration on the traffic situation is evaluated.
  • the evaluation in the case of a partially autonomous ferry operation of the vehicle can be used to estimate how long the driver 2 is likely to need, starting from an acoustic signal, for example, until he can take control of the vehicle again.
  • the simplest type of further processing of viewing directions recorded with the calibrated eye tracking system is to reliably determine where the driver is currently looking, for example on the traffic in front of the vehicle or in the rearview mirror, or for example on instruments of the vehicle or a multimedia system or the like.
  • subsections 27 are subsections 27 of the path 124, which usually represent between 0.1 second and 1.0 second. They are very well suited as an input variable for a trained machine learning system.
  • a trained machine learning system can be used both for an evaluation, the target information of which is a determination of the driver's activity. However, in particular, even without determining intermediate values, it can have the activity relating to an immediate assessment as target information as to whether the vehicle driver is ready to take control of the vehicle from an autonomous driving mode or what time period is to be expected before the readiness to take over.
  • the 10 shows the driving situation.
  • the gaze vector 20 of the driver 2 is detected by the calibrated eye tracking system 10 and its intersection with the imaginary projection surface 30 is made available as a gaze direction 22 for further processing.
  • the line of sight 22 is determined with a frequency of, for example, 50 Hz.
  • the sequence of the gaze directions 22 forms the gaze path 24.
  • the correction parameters recorded during the calibration are used to convert the recorded gaze path 24 into a standardized gaze path 124. This is shown in dotted lines in FIG. 10.
  • this standardized gaze path 124 is now projected onto the reference structure 28 and thus forms a simplified standardized gaze path 124 '.
  • the simple view path 124 'thus modified is shown in FIG. 12.
  • This gaze path 124 ' is now broken down into the partial sections 27 converted, which are shown in FIGS. 13A to 13D by a solid highlight Darge.
  • the subsections 27 thus represent subsections of the simplified standardized gaze path 124 ", whereby typically, but not necessarily, subsections 27 are of the same duration.
  • Such a time period can be, for example, between 0.1 second and 1.0 second.
  • a standardized gaze path 124 which represents 15 seconds, can be simplified in the manner outlined above by the reference structure 28, so that it forms the simplified gaze path 124 ', and then in 900 overlapping sections 27 of 0.1 seconds in length.
  • the calibration can also be repeated or the correction parameters can be continuously updated as part of a continuous calibration, for example based on the viewing path of the previous 60 seconds.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Die Erfindung betrifft primärein Verfahren zum Kalibrieren eines Eye-Tracking-Systems (10), insbesondere in einem Kraftfahrzeug. Es wird vorgeschlagen, dass die erfindungsgemäße Kalibrierung derart erfolgt, dass zunächst die Augen (3) einer Person (2) mittels eines Kamerasystems (12) erfasst werden, die Blickrichtung (22) der Person anhand optisch erfasster Merkmale ermittelt wird und ein Blickpfad (24) ermittelt wird, der den zeitlichen Verlauf der Blickrichtung (22) und ihrer Änderung wiedergibt. Auf Basis des ermittelten Blickpfades (24) werden dann mittels Clustering Blickpfadbündel (26) häufig benutzter Teilpfade des ermittelten Blickpfades (24) ermittelt. Die ermittelten Blickpfadbündel (26) werden ausgewertet und insbesondere mit Referenzwerten verglichen, wobei hieraus Korrekturparameter abgeleitet werden, die bei späterer Auswertung weiterer erfasster Blickrichtungen (122) und/oder Blickpfade (124) zum Zwecke der Datennormierung herangezogen werden.

Description

Verfahren zum Kalibrieren eines Eye-T racking-Svstems.
Verfahren zur Auswertung des Verhaltens einer Person mittels eines Eve-Tracking-Systems sowie Eye-T racking-Svstem und Kraftfahrzeug mit einem solchen Eye-T racking-System
ANWENDUNGSGEBIET UND STAND DER TECHNIK
Die Erfindung betrifft den Bereich des Eye-Trackings, also die Erfassung und Auswertung der Augen und Augenbewegung einer beobachteten Person mittels einer Kamera und einer hiermit verbundenen Auswerteeinheit. Die Erfindung betrifft dabei insbesondere ein Verfahren zum Kalibrieren eines Eye- T racking-Systems sowie die Verwendung des derart kalibrierten Eye-T racking-Systems für die Auswer tung des Verhaltens einer Person. Die Erfindung betrifft weiterhin auch ein entsprechend ausgebilde tes Eye-T racking-System.
Dabei geht es im Kontext der vorliegenden Erfindung insbesondere um die Erfassung eines Fahrzeug führers oder Flugzeugführers durch ein in einem Fahrzeug oder Flugzeug vorgesehenes Eye-T racking- System. Eye-T racking dient in diesen Kontexten insbesondere dem Zweck, die jeweils aktuelle Tätig keit des Fahrzeugführers oder Flugzeugführers zu ermitteln oder seine Konzentration zu beurteilen.
So ist es bereits bekannt, Eye-T racking zu verwenden, um im autonomen Betrieb teilautonomer Fahr zeuge beurteilen zu können, wie lange ein Fahrzeugführer voraussichtlich benötigen wird, um die Kontrolle des Fahrzeugs wieder zu übernehmen. Dies ist auch im Artikel“Ready for Take-Over? A New Driver Assistance System for an Automated Classification of Driver Take-Over Readiness” von Chris tian Braunagel, Wolfgang Rosenstiel und Enkelejda Kasneci (IEEE Intelligent transportation Systems magazine, Ausgabe Winter 2017, Seiten 10 bis 22) beschrieben.
Die Auswertung der Kopf- und Augenbewegungen insbesondere in einem Fahrzeug ist gegenüber ei nem stationären Aufbau eines Eye-T racking-Systems erschwert, so dass eine sichere Erkennung der Blickrichtung des Fahrzeugführers aufgrund verschiedener Faktoren nicht ohne weiteres gewährleis tet ist. Unterschiedliche Einstellungen des Sitzes oder wechselnde Sitzhaltungen erschweren die Aus wertung. Auch ist das sichere Erkennen von für die Blickrichtung charakteristischen Merkmalen des Auges durch ein Kamerasystem in einem Fahrzeug oder Flugzeug aufgrund beispielsweise wechseln der Lichtverhältnisse mit Ungenauigkeiten behaftet. Es ist daher bereits vorgeschlagen worden, mehrere Kameras oder besonders hochauflösende Kame ras zu verwenden. Eine derartige Konfiguration eines Kamerasystems ist jedoch vergleichsweise teu er.
Um individuelle Abweichungen in der Auswertung von Eye-Tracking-Systemen zu kompensieren, ist es bekannt, Eye-Tracking-Systeme vor dem Gebrauch zu kalibrieren. Dies kann beispielsweise dadurch erfolgen, dass die zu beobachtende Person zunächst in einem Kalibrierungsmodus einen Punkt oder nacheinander mehrere Punkte mit dem Blick zu fixieren hat. Die jeweilige Blickrichtung wird von der Kamera des Eye-Tracking-Systems erfasst und es werden Abweichu ngsparameter ermit telt, die die Abweichung zwischen ermittelter und erwarteter Blickrichtung repräsentieren. Eine sol che Kalibrierungsphase ist jedoch in die Alltagspraxis zumindest von Kraftfahrzeugen nur schwer zu integrieren. Zudem können im Fährbetrieb wechselnde Sitzhaltungen eines Fahrzeugführers hiermit nicht erfasst werden, da eine wiederholte Kalibrierung in der Praxis kaum möglich ist.
Zum Stand der Technik zählt auch der Artikel„SubsMatch 2.0: Scanpath comparison and Classifica tion based on subsequence frequencies“ von Thomas C. Kühler, Colleen Rothe, Ulrich Schiefer und Wolfgang Rosenstiel (Behavior Research Methods (2017) 49: 1048-1064). Darin ist beschrieben, wie die Auswertung der Augenbewegung einer Person erfolgen kann, indem die Augenbewegung bzw. der sich aus der Änderung der Blickrichtung ergebende Blickpfad in kurze Teilabschnitte untergliedert wird. Die Auswertung erfolgt dann auf Basis dieser Teilabschnitte, deren Vorkommen in einem Blick pfad einer gegebenen zeitlichen Länge gezählt wird und hieraus eine Klassifikation abgeleitet wird.
Im Kontext der Erfindung können die im genannten Artikel verwendeten Techniken zur Auswertung genutzt werden. Der genannte Artikel wird daher du rch explizite Bezugnahme zum Teil dieser Offen barung gemacht.
AUFGABE UND LÖSUNG
Aufgabe der Erfindung ist es, eine Möglichkeit zur verbesserten Kalibrierung eines Eye-Tracking- Systems und darauf aufbauend eine verbesserte Möglichkeit zur Auswertung der erfassten Augenbe wegungen zu schaffen, insbesondere zur Verwendung in einem Fahrzeug oder Flugzeug. Zu diesem Zweck wird ein Verfahren zum Kalibrieren eines Eye-T racking-Systems vorgeschlagen, wel ches die folgenden Merkmale erfüllt und welches insbesondere zur Anwendung im Eye-T racking- System eines Kraftfahrzeugs vorgesehen ist.
Das erfindungsgemäße Verfahren sieht vor, dass die Augen einer Person, insbesondere eines Fahr zeugführers eines Kraftfahrzeugs, mittels eines Kamerasystems erfasst werden und die Blickrichtung der Person anhand optisch erfasster Merkmale ermittelt wird. Der zeitliche Verlauf dieser Blickrich tungen ergibt einen Blickpfad.
Dieser Blickpfad ist aufgrund vielfältiger Ursachen ungenau und kann daher nicht unmittelbar genutzt werden, um mittels einer Verarbeitungseinheit zu ermitteln, was der Fahrzeugführer jeweils in den Blick nimmt oder wie seine Konzentration oder Übernahmebereitschaft zu beurteilen sind. Zu diesen Ursachen gehören eine variable Sitzposition, Unterschiede in den zur Erfassung der Blickrichtung ausgewerteten optisch erfassten Merkmalen sowie ein begrenztes Auflösungsvermögen der verwen deten Kamera. Dies führt dazu, dass übereinstimmende reale Blickrichtungen, beispielsweise auf ei nen Seitenspiegel, bei der Erfassung der Blickrichtung zu unterschiedlichen erfassten Blickrichtungen und entsprechend unterschiedlichen Blickpfaden führen, sowohl im Falle unterschiedlicher Personen, jedoch auch im Falle der gleichen Person zu verschiedenen Zeitpunkten. Die Kalibrierung zielt darauf ab, die genannten individuellen Einflussgrößen zu kompensieren.
Der erfasste Blickpfad wird durch zeitlich aufeinander folgende vom Eye-T racking-System erfasste Blickrichtungen gebildet, wobei er vorzugsweise entsprechend einer vorgegebenen Frequenz um die jeweils aktuelle Blickrichtung ergänzt wird. Die mit der vorgegebenen Frequenz erfassten Blickrich tungen bilden die durch Kanten verbundenen Knoten des erfassten Blickpfades. Alternativ ist es grundsätzlich auch möglich, die genannten Knoten nicht definiert zeitlich voneinander beabstandet als Blickpfad zu erfassen, sondern direkt durch Knoten gleicher oder ähnlicher Beabstandung zu bil den, so dass ein hierfür beim nachfolgenden Clustering vorgesehener Resampling-Schritt (siehe un ten) beim ersten Clustering-Durchgang entfallen kann.
Ausgehend von dem ermittelten und noch ungenauen Blickpfad werden dann Blickpfadbündel häufig genutzter Teilpfade des ermittelten Blickpfades mittels Clustering ermittelt. Dieses Clustering bedeu tet, dass einander ähnliche Teilpfade des Blickpfades, entlang derer ein Blickrichtungswechsel statt gefunden hat, als zusammengehörig identifiziert werden, so dass die Vielzahl von erfassten Teilpfaden auf eine geringere Zahl von Bündeln von Teilpfaden zurückgeführt werden, die typische Blickrich- tungswechsel oder Teilstrecken hiervon wiederspiegeln, beispielsweise der Wechsel von einem Blick auf die Straße vor dem Fahrzeugzum Seitenspiegel.
Diese durch Clustering ermittelten Blickpfadbündel werden ihrerseits erfindungsgemäß herangezo gen, um Korrekturparameter abzuleiten, die bei der späteren Auswertung weiterer erfasster Blickpfa de zur Datennormierung genutzt werden können, wie im weiteren noch näher erläutert wird.
Das erfindungsgemäße Verfahren zur Kalibrierung eines Eye-Tracking-Systems zeichnet sich demnach dadurch aus, dass es keine separate Kalibrierungsphase verlangt, sondern die Blickrichtungen der Person, insbesondere des Fahrzeugführers im normalen Fährbetrieb des Fahrzeugs, für die Kalibrie rung nutzt. Dabei werden die erfassten Blickrichtungen oder der sich hieraus ergebende Blickpfad nicht unmittelbar genutzt, um Korrekturparameter abzuleiten, da diese sich nicht für eine direkte Kalibrierung eignen. Stattdessen werden die durch das Clustering ermittelten Bündel von Blickpfaden verwendet. Das Clustering führt dazu, dass quasi aus einem feinen Netz, welches der erfasste Blick pfad bildet, ein grobes Netz mit weniger Kanten und Knoten entsteht.
Dieses grobe Netz aus den gebündelten Teilpfaden eignet sich gut für die Auswertung im Zuge der Kalibrierung. Es ist hiermit möglich, im Rahmen eines Vergleichs mit einem aus Referenzdaten gebil deten groben Referenznetz zu ermitteln, in welchem Maße Abweichungen zum Referenznetz vorlie gen.
Die Auswertung der Blickrichtung zur Bildung von Blickpfaden für das nachfolgende Clustering erfolgt vorzugsweise, indem vom Kamerasystem erfasste Bilder dahingehend ausgewertet werden, dass die Augen der erfassten Person sowie ihre Pupillen lokalisiert werden und hieraus ein die Blickrichtung repräsentierender Vektor abgeleitet wird. Die optisch erfassten Merkmale zur Ermittlung dieser Blick richtung umfassen die Erfassung eines Pupillenzentrums der Person, die Erfassung einer Pupillenkon tur der Person, die Erfassung einer Augenkontur der Person, die Erfassung einer Iriskontur der Person, die Erfassung eines Augenlides der Person und/oder die Erfassung von Reflexen auf einer Augenhorn haut der Person.
Der ermittelte Vektor wird vorzugsweise zusammen mit einer gedachten (virtuellen) Projektionsfläche verwendet, um die zur Erzeugung des Blickpfades genutzte Blickrichtung in Art zweidimensionaler Koordinaten zu bestimmen. H i e rf ü r wird ermittelt, wo der Blickvektor die gedachte Projektionsfläche kreuzt. Das hier beschriebene Kalibrierungsverfahren kann jedoch grundsätzlich auch mit mehr als zwei die Blickrichtung der beobachteten Person beschreibenden Parametern oder Koordinaten ge nutzt werden.
Die Korrekturparameter, die ermittelt werden, können im Falle zweier die Blickrichtung kennzeich nenden Koordinaten (X, Y) beispielsweise insgesamt fünf Parameter sein, die die Abweichung des durch das Clustering gebildeten groben Netzes gegenüber einem Referenznetz in Hinblick auf hori zontale Verschiebung, vertikale Verschiebung, horizontale Skalierung, vertikale Skalierung und Dre hung beschreiben.
Das Clustering erfolgt vorzugsweise mittels der folgenden Verfahrensschritte, wobei diese Verfahrens schritte insbesondere vorzugsweise mehrfach durchgeführt werden. Im Rahmen eines ersten Durch gangs bildet dabei das oben genannte feine Netz, welches den erfassten Blickpfad bildet, die Ein gangsdaten. In anschließenden Durchgängen bilden die Zieldaten des vorangegangenen Durchgangs die Eingangsdaten für den nächsten Durchgang.
Beim vorgeschlagenen Clustering zur Ermittlung von Blickpfadbündeln erfolgt in einem ersten Teil schritt ein Neuberechnen des Blickpfades, im weiteren „Resampling“ genannt. Bei diesem Resampling bleibt der Blickpfad, also entweder der durch die Kamera zuvor ermittelte Blickpfad oder ein in einem vorherigen Clustering-Durchgang erzeugter resultierender Blickpfad, im Wesentlichen unverändert, allerdings werden die Knoten neu gesetzt, so dass ihr Abstand auf dem Blickpfad vonei nander nicht mehr von der Geschwindigkeit der Änderung der Blickrichtung abhängt. Insbesondere können die Knoten auf dem Blickpfad in identischem Abstand angeordnet werden. Im Zuge des Resamplings kann gleichzeitig auch eine Glättung des Blickpfades erfolgen.
In einem zweiten Teilschritt des Clusterings wird eine Dichtekarte (Heatmap) erzeugt. Hierbei werden vorzugsweise die Knoten des Blickpfades auf der genannten gedachten Projektionsfläche verwendet. Die Dichtekarte gibt also wieder, wie viele Knoten sich in einem vorzugsweise quadratischen Bereich der gedachten Projektionsfläche relativ zu den anderen quadratischen Bereichen der gedachten Pro jektionsfläche befinden. Die Dichtekarte kann alternativ auch auf Basis der Kanten des Blickpfades erfolgen.
Anschließend wird in einem dritten Teilschritt der resampelte Blickpfad, der im ersten Teilschritt er zeugt worden ist, modifiziert, indem die Knoten oder zumindest ein Teil der Knoten in Richtung eines lokalen Maximums der Dichtekarte verschoben werden, beispielsweise um 10% der Distanz zwischen der Position des Knotens und dem lokalen Maximum.
Ergebnis ist ein modifizierter Blickpfad, der die Zieldaten des Durchgangs darstellt. Dieser modifizierte Blickpfad kann dann verwendet werden, um erneut dem genannten Verfahren mit den drei Verfah rensschritten unterworfen zu werden. Üblicherweise sollte das Clustering mit Resampling, Erstellung einer Dichtekarte und Verlagerung von Knoten zwischen 5- und 400-mal durchgeführt werden, vor zugsweise zwischen 10- und 200-mal.
Beim ersten Durchgang durch das genannte Clustering kann das Resampling gegebenenfalls entfal len, wenn bereits zuvor bei der Erstellung des Blickpfades die Knoten durch in etwa gleich beabstan- dete Blickrichtungen gebildet wurden (s.o.).
Sobald der letzte Clustering-Durchgang abgeschlossen ist, liegt ein resultierender Blickpfad vor, der nur noch wenige unterschiedliche und deutlich voneinander beabstandete Knoten oder Bereiche mit vielen Knoten aufweist. Die zusammengezogenen Knoten sind miteinander durch die Blickpfadbündel häufig genutzter Teilpfade des resultierenden Blickpfades verbunden.
Die Auswertung der ermittelten Blickpfadbündel zur Ableitung der Korrekturparameter erfolgt vor zugsweise durch einen Vergleich mit hinterlegten Referenzwerten, insbesondere durch lineare Opti mierung.
Wie zuvor bereits beschrieben können die Referenzwerte insbesondere ihrerseits ein grobes Refe renznetz aus Kanten und Knoten bilden, das auch als gegeben angesehen wird, wenn die Referenz werte in ein Referenznetz transformiert werden können. Dieses Referenznetz kann mit dem groben Netz aus Teilpfaden des resultierenden Blickpfades nach dem Clustering verglichen werden, insbe sondere mittels der genannten linearen Optimierung. Hierdurch lassen sich die Korrekturparameter ermitteln, mittels derer die ermittelten Blickpfadbündel in die Referenzwerte überführbar sind.
Die mittels des beschriebenen Kalibrierungsverfahrens ermittelten Korrekturparameter gestatten es, diese nach Ermittlung zu verwenden, um die Blickrichtung des Fahrers im kalibrierten Betrieb derart zu normieren, dass sie nachfolgend ausgewertet werden kann. Die beschriebene Kalibrierung, insbesondere mit dem im Detail beschriebenen Clustering-Verfahren, gestattet es, ein vergleichsweise günstiges Kamerasystem zu verwenden, welches das Gesicht der beobachteten Person im Nahinfrarot-Spektralbereich (Wellenlängenbereich: 780 nm bis 1000 nm) erfasst. Üblicherweise reicht genau eine Kamera zur Erzielung ausreichend guter Ergebnisse aus. Die se vergleichsweise geringen Anforderungen an die verwendete Kameratechnik werden durch das be schriebene Kalibrierungsverfahren ermöglicht, da dieses unter anderem durch die Kamera bedingte Ungenauigkeiten durch die Ermittlung der genannten Korrekturparameter kompensiert.
Die Kamera ist bei Einbau in ein Fahrzeug vorzugsweise im Bereich der Armaturentafel, der A-Säule oder oberhalb der Windschutzscheibe positioniert. Aber auch die Integration in eine Brille ist möglich und kann je nach Anwendungsfall von Vorteil sein.
Die Erfindung umfasst auch ein Verfahren zur Auswertung des Verhaltens eines Fahrzeugführers mit tels eines Eye-Tracking-Systems, im Rahmen dessen das beschriebene Kalibrierungsverfahren ange wendet wird.
Die nach erfolgter Kalibrierung mittels des Kamerasystems erfassten Blickrichtungen oder hieraus ermittelte Blickpfade werden mittels der ermittelten Korrekturparameter normiert und können dann durch Vergleich mit Referenzwerten ausgewertet werden, um eine Beurteilung des Verhaltens der beobachteten Person zu gestatten.
Im einfachsten Falle kann die Auswertung der durch die Korrekturparameter normierten Blickrichtun gen dahingehend erfolgen, dass zuverlässig interpretiert wird, wohin die beobachtete Person, insbe sondere der Fahrzeugführer, blickt, also beispielsweise ob er/sie Tacho, Seitenspiegel oder Navigati onsgerät anschaut oder durch die Windschutzscheibe schaut (AOI = Area of Interest).
Von Vorteil ist demgegenüber jedoch eine Auswertung, die auf einer Identifikation des Wechsels zwi schen durch die Person in den Blick genommenen Bereichen basiert (TOI = T ransitions Of Interest).
Ähnlich wie zuvor bei der Kalibrierung wird dabei auf Basis der normierten Blickrichtungen ein nor mierter Blickpfad ermittelt, der den zeitlichen Verlauf der Blickrichtung und ihrer Änderung wieder gibt. Dieser Blickpfad kann insbesondere einen begrenzten jeweils gerade zurückliegenden Zeitraum überspannen, der für die Beurteilung der beobachteten Person, insbesondere des Fahrzeugführers, besonders aussagekräftig ist. So wird es als zweckmäßig angesehen, einen zurückliegenden Zeitraum zwischen 5 Sekunden und 300 Sekunden Länge, insbesondere zwischen 15 Sekunden und 60 Sekun den Länge, auszuwerten.
Für die Auswertung dieses normierten Blickpfades wird vorgeschlagen, das Verfahren gemäß des ein gangs genannten Artikels„SubsMatch 2.0: Scanpath comparison and Classification based on subse- quence frequencies“ zu verwenden. Es wird primär eine Auswertung vorgeschlagen, die wie folgt durchgeführt wird.
Zunächst wird der durch die Korrekturparameter normierte Blickpfad oder ein hieraus abgeleiteter vereinfachter normierter Blickpfad, in Teilabschnitte untergliedert. Diese Teilabschnitte des Blickpfa des umfassen vorzugsweise die Blickrichtungen eines definierten Zeitraums, insbesondere eines Zeit raums zwischen 0,1 Sekunde und 1,0 Sekunde. Die Teilabschnitte überlappen sich dabei vorzugswei se, statt dass sie bündig aneinander anliegen.
Insbesondere vorzugsweise wird nicht unmittelbar der normierte Blickpfad in Teilabschnitte unter gliedert, sondern der genannte vereinfachte normierte Blickpfad. Dieser kann dadurch erzeugt wer den, dass der normierte Blickpfad in Richtung einer durch Referenzdaten definierten Struktur ver schoben wird oder hierauf projiziert wird, so dass die dabei verschobenen Knoten des normierten Blickpfades unmittelbar auf einer Struktur liegen, die durch die Referenzdaten definiert ist. Hierdurch wird erreicht, dass auch die Teilabschnitte auf dieser Struktur liegen und somit die weiteren Auswer tungsschritte vereinfacht sind.
Die weiteren Auswertungsschritte umfassen insbesondere einen Schritt, bei dem Vorkommnisse übereinstimmender oder einander ähnlicher Teilabschnitte gezählt werden. Die hierdurch bestimm ten Werte können als Eingangsgröße eines trainierten maschinellen Lernsystems, beispielsweise einer „Support Vector Machine“, verwendet werden, welches den jeweils spezifischen Zählwerten für ver schiedene Teilabschnitte ein Auswertungsresultat zuordnet.
Ein solches Auswertungsresultat kann je nach Training des maschinellen Lernsystems verschieden geartet sein. So kann ein Rückschluss auf die Tätigkeit der beobachteten Person erfolgen, die an schließend vor dem Hintergrund der aktuellen Straßensituation auf Angemessenheit bewertet wird. Alternativ kann das Auswertungsresultat jedoch auch unmittelbar ein Wert sein, der die Übernahme bereitschaft der beobachteten Person quantifiziert, beispielsweise ein Zeitraum, innerhalb dessen die beobachtete Person, beurteilt anhand des vorausgegangenen Blickpfades, voraussichtlich die Kon trolle über das Fahrzeug wieder übernehmen kann.
Ein solcher Zahlenwert kann dann mit einem korrespondierenden Zeitraum abgeglichen werden, der die autonomen Fahrfunktionen eines Fahrzeugs betrifft und prognostiziert, wie lange ausgehend von der aktuellen Verkehrssituation die autonomen Fahrfunktionen ohne Eingriff des Fahrzeugführers ein sicheres Fahren noch gewährleisten können. Sobald die prognostizierte Übernahmezeit des Fahrzeug führers sich dem genannten sicheren Zeitraum der autonomen Fahrfunktionen nähert oder gar diesen unterschreitet, kann der Fahrzeugführer gewarnt werden, beispielsweise durch eine akustische, hap tische oder optische Warnung.
Die Erfindung betrifft neben den beschriebenen Verfahren auch das Eye-Tracking- System selbst, wel ches mit einem Kamerasystem und einer Auswerteeinheit ausgestattet ist. Diese Auswerteeinheit ist erfindungsgemäß dafür ausgebildet, das oben beschriebene Kalibrierungsverfahren durchzuführen. Vorzugsweise ist die Auswerteeinheit weiter dafür ausgebildet, das beschriebene Verfahren zur Ermitt lung des Verhaltens einer Person auf Basis des kalibrierten Eye-T racking-Systems durchzuführen und bei Bedarf akustische, haptische oder optische Warnhinweise zu geben.
Die Erfindung betrifft weiterhin auch ein Kraftfahrzeug oder ein Flugzeug, welches mit einem solchen Eye-T racking-System ausgerüstet ist. Die Kamera eines solchen Eye-T racking-Systems ist vorzugswei se fest in das Fahrzeug integriert, insbesondere im Bereich der Armaturentafel, der A-Säule oder über der Windschutzscheibe, und auf den Fahrer gerichtet. In einem Flugzeug gilt entsprechendes.
Grundsätzlich kann aber auch ein mobiles System verwendet werden, bei dem die Kamera zur Erfas sung der Augen in eine kopfgebundene Struktur, insbesondere in Art einer Brille, integriert ist. Diese Brille ist dann zusätzlich im Raum zu orten, um in der dargestellten Weise zu gestatten, die Blickrich tung des Fahrers in einer gedachten Projektionsebene zu ermitteln. Die Ortung der Brille im Raum kann durch eine weitere Kamera realisiert werden, die entweder ebenfalls an der Brille vorgesehen ist oder aber fest in das Fahrzeug integriert ist. KURZBESCH REIBUNG DER ZEICHNUNGEN
Weitere Vorteile und Aspekte der Erfindung ergeben sich aus den Ansprüchen und aus der nachfol genden Beschreibung von bevorzugten Ausführungsbeispielen der Erfindung, die nachfolgend an hand der Figuren erläutert sind.
Fig. 1 zeigt den Innenraum eines Personenkraftwagens mitsamt Eye-Tracking-System sowie den Kopf des Fahrzeugführers und typische Blickvektoren.
Fig. 2 ist eine auf Fig. 1 aufbauende Darstellung, die die Bestimmung von Blickrichtungen durch den Schnittpunkt der Blickvektoren mit einer gedachten Projektionsfläche verdeutlicht.
Fig. 3 zeigt einen zum Zweck der Kalibrierung ermittelten Blickpfad.
Fig. 4A und 4B zeigen das Resampling eines Abschnitts des ermittelten Blickpfades zum Zwecke eines C l u ste ri n g-Ve rf a h re n ssc h ri ttes.
Fig. 5 zeigt den gesamten resampelten Blickpfad in einem Teilabschnitt der gedachten Projektionsflä che.
Fig. 6 zeigt eine Dichtekarte, die auf Basis des resampelten Blickpfades erstellt wird.
Fig. 7A und 7B zeigen das Clustering anhand derVerlagerung von Knoten des resampelten Blickpfades in Richtung lokaler Maxima sowie den sich dadurch ergebenden modifizierten Blickpfad.
Fig. 8 zeigt die sich nach mehreren Clustering-Schritten ergebenden Blickpfadbündel häufig benutzter Teilpfade des Blickpfades.
Fig. 9 verdeutlicht die Ableitung von Korrekturparametern durch Vergleich der ermittelten Blick pfadbündel mit Referenzwerten.
Fig. 10 zeigt den Fahrzeuginnenraum mitsamt einem vom zuvor kalibrierten Eye-Tracking-System ermittelten Blickpfad und dem hieraus anhand der Korrekturparameter normierten Blickpfad. Fig. 11 zeigt den ermittelten Blickpfad in der gedachten Projektionsfläche sowie die anhand der Refe renzwerte des Systems erstellte Referenzstruktur.
Fig. 12 zeigt den normierten und nachfolgend auf die Referenzstruktur projizierten Blickpfad.
Fig. 13A bis 13D zeigen die Zergliederung des normierten und durch Projektion auf die Referenzstruk tur erzeugten Blickpfades in Teilsegmente zur nachfolgenden Auswertung.
DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
Fig. 1 zeigt ein Cockpit eines Personenkraftwagens mit einem Eye-Tracking-System 10, umfassend eine Kamera 12, die derart angebracht ist, dass sie einen Fahrzeugführer 2 und insbesondere seine Augen 3 erfassen kann. Die Kamera 12 ist zu diesem Zweck derart ausgebildet, dass sie unabhängig von der konkreten Größe und Kopfstellung des Fahrzeugführers dessen Augen stets oder zumindest fast immer erfassen kann. Die zur Erfassung des Bildes im Nahinfrarot-Spektralbereich ausgebildete Kamera 12 ist mit einer nur schematisch dargestellten elektronischen Auswerteeinheit 14 verbunden, die zur Auswertung des von der Kamera 12 erfassten Bildes und zur Durchführung der nachfolgend beschriebenen Verfahren ausgebildet ist. Auch wenn in Fig. 1 die Auswerteeinheit 14 als separate Komponente ausgebildet ist, kann sie natürlich stattdessen auch Teil eines Bordcomputers sein.
Die Auswerteeinheit 14 kann insbesondere unmittelbar oder mittelbar mit Signalisierungsmitteln, wie einem Lautsprecher 16, verbunden sein, um im Bedarfsfälle Signale an den Fahrzeugführer 2 geben zu können.
Der Fahrzeugführer 2 nimmt während der Fahrt verschiedene Dinge in den Blick, was in Fig. 1 durch mehrere Blickvektoren 20 verdeutlicht wird. Hierzu zählen neben der vor dem Fahrzeug liegenden Straße 4 auch verschiedene andere fahrzeugeigene Objekte wie der Außenspiegel, der Innenspiegel, das Navigationsgerät oder das Radio, die Instrumente hinter dem Lenkrad oder auch andere Teile des Fahrzeugs wie bspw. der Beifahrersitz.
Dabei ändert sich nicht nur die Stellung der Pupillen, sondern es ändern sich auch die Position und Stellung des Kopfes, was in Fig. 1 jedoch nicht näher dargestellt ist.
Das Eye-Tracking-System 10 nimmt mittels der Kamera 12 durchgängig Bilder des Fahrzeugführers 2 auf und leitet diese weiter an die genannte Auswerteeinheit 14. Diese Auswerteeinheit 14 erkennt den gerade aktuellen Blickvektor 20, wobei sie hierfür die Augenstellung und die Pupillenstellung erfasst. Optisch erfassbare Merkmale, die zu diesem Zweck nutzbar sind, sind allgemein bekannt.
Der jeweils erkannte Blickvektor 20 wird aufgrund einfacher Kameratechnik und Variabilität in der Person und Sitzposition des Fahrers nicht absolut fehlerfrei erkannt. Dies ist aufgrund des im Weiteren beschriebenen Kalibrierungsverfahrens jedoch kaum erheblich.
Die Auswerteeinheit 14 leitet aus den Blickvektoren 20, die beispielsweise durch drei Koordinaten und zwei Winkel beschrieben sein können, Blickrichtungen 22 ab, die im Falle des Ausführungsbeispiels der Erfindung durch den Schnittpunkt zwischen dem Blickvektor 20 mit einer gedachten Projektions fläche 30 gebildet werden und somit in Form zweier Koordinaten vorliegen. Diese zwei Koordinaten (X, Y) dienen in diesem konkreten Ausführungsbeispiel der weiteren Verarbeitung.
Zwar ist diese Form der Ermittlung von Blickrichtungen 22 nicht fehlerfrei, da eine so ermittelte Blick richtung sich bei geänderter Kopfposition des Fahrzeugführers 2 identisch aus unterschiedlichen Blickvektoren 20 ergeben könnte. Da der Kopf des Fahrzeugführers 2 jedoch in der Praxis nur wenig nach oben und unten bzw. nach rechts und links verlagert wird, spielt diese Ungenauigkeit in der Pra xis keine Rolle.
Der zeitliche Verlauf der Blickrichtungen 22 führt zu dem in der gedachten Projektionsfläche 30 der Fig. 2 dargestellten Blickpfad 24.
Dieser Blickpfad 24 bildet den Ausgangspunkt für die Kalibrierung des Eye-T racking-Systems. Das Eye- T racking-System 10 kann hierfür beispielsweise zum Fahrtantritt die Blickrichtung 22 über einen defi nierten Zeitraum von einigen Minuten beobachten und den Blickpfad 24 hieraus ermitteln. Dabei wird die Blickrichtung vorzugsweise in fester Frequenz ermittelt, beispielsweise mit einer Frequenz von 50 Hz.
Fig. 3 zeigt den ermittelten Blickpfad 24 auf der gedachten Projektionsfläche 30 und einen im Weite ren näher betrachteten Teilbereich 32. Der hier dargestellte exemplarische Blickpfad 24 ist gegenüber einem realen Blickpfad, der über einige Minuten ermittelt wurde, zum Zwecke der besseren Erfass- barkeit im Rahmen dieser Beschreibung vereinfacht. Dennoch zeigt er, dass der Blickpfad 24 übli cherweise erkennbar besonders häufig benutzte Teilabschnitte aufweist, die jedoch naturgemäß nicht einen exakt gleichen Verlauf aufweisen. Ausgehend von diesem ermittelten Blickpfad erfolgt anschließend ein Schritt des Clusterings, also eine Vereinfachung des Blickpfades durch Zusammenfassen oder Zusammenführen von ähnlichem. Vorliegend geschieht das mittels des Ablaufs, der den Figuren 4A bis 7 zu entnehmen ist.
Im ersten Schritte des Clusterings, der in den Fig. 4A und 4B verdeutlicht ist, werden die aufgrund der ursprünglich variablen Geschwindigkeit der Blickrichtungsänderung ebenfalls variabel beabstandete Knoten 25 des Blickpfades durch ein Resampling neu gesetzt. Bereiche, auf die der Fahrzeugführer 2 seinen Blick lange gerichtet hat, ohne dabei die Blickrichtung 20 wesentlich zu verändern, erfahren hierdurch gegebenenfalls eine Vereinfachung. Fig. 4B zeigt einen Teilabschnitt des resampelten Blickpfades 24‘.
Fig. 5 zeigt den gesamten Blickpfad 24‘ im Teilbereich 32 nach dem Resampling.
Im zweiten Schritt wird eine Dichtekarte 40 (Fleatmap) erzeugt. Flierzu wird vorliegend die gedachte Projektionsfläche 30 in quadratische Teilbereiche untergliedert. Die Anzahl der durch das vorherige Resampling neu gesetzten Knoten 25‘, die sich in einem solchen quadratischen Teilbereich befinden, bestimmt die relative Gewichtung des Teilbereichs gegenüber den anderen Teilbereichen. Die in Fig. 6 dargestellte Dichtekarte stellt dabei eine grobe Vereinfachung dar, da hier die Zahl der Teilbereiche recht gering ist. In der Praxis ist es von Vorteil, eine Dichtekarte mit höherer Auflösung zu erstellen. Auch ist die Unterscheidung von nur fünf verschiedenen Gewichtungen in Fig. 5 eine Vereinfachung gegenüber der Praxis.
Aus der Dichtekarte 40 ergeben sich lokale Maxima. Wie in den Figuren 7A und 7B dargestellt, erfolgt nach Erzeugung der Dichtekarte 40 eine Verschiebung der Knoten 25‘ des Blickpfades. Diese werden in Richtung eines lokalen Maximums verschoben, wobei auch Alternativen denkbar sind, bei denen die Knoten in gewichteter Art und Weise durch mehrere lokale Maxima bei der Verschiebung beeinflusst werden. Die verschobenen Knoten 25“ sind in den Fig. 7A und 7B als nicht ausgefüllte Kreise darge stellt. Dies definieren einen modifizierten Blickpfad 24“, der in Fig. 7B dargestellt ist.
Es ist zu ersehen, dass die verschobenen Knoten 25“ und Kanten näher zusammengerückt sind und somit beginnend gebündelt werden.
Die genannten Schritte des Clusterings, also das Resampling, die Erzeugung der Dichtekarte 40 und die Verlagerung der Knoten 25‘ in Richtung mindestens eines lokalen Maximums, erfolgt vorzugsweise mehrfach, wobei eine Anzahl von Durchläufen zwischen 10 und 200 als insbesondere zweckmäßig angesehen wird.
Es ergibt sich hierdurch eine Struktur ähnlich jener, die in Fig. 8 dargestellt ist. Diese Struktur besteht nur noch aus vergleichsweise wenig unterschiedlichen Knoten. Die Teilabschnitte des Blickpfades sind in dieser Struktur quasi gebündelt, bilden also die dargestellten Blickpfadbündel 26. Die Strich stärke in Fig. 7 spiegelt wieder, wie viele der jeweiligen Teilabschnitte im modifizierten Blickpfad in den jeweiligen Blickpfadbündeln 26 enthalten sind.
Die Blickpfadbündel-Struktur der Fig. 8 wird verwendet, um aus ihren Unterschieden zu Referenzwer ten, die vorliegend eine Referenzstruktur 28 bilden, Korrekturparameter abzuleiten. In Fig. 9 sind die Blickpfadbündel 26 der Fig. 7 gestrichelt dargestellt. Weiterhin in Fig. 9 dargestellt ist die aus den Re ferenzwerten gebildete Referenzstruktur 28.
Diese Strukturen, das Blickpfadbündel 26 und die Referenzstruktur 28, oder alternativ auf Basis dieser Strukturen erzeugte Dichtekarten, werden anschließend genutzt, um mittels linearer Optimierung die Korrekturparameter zu ermitteln. Im vorliegenden Fall handelt es sich um insgesamt fünf Korrektur parameter, die die Verschiebung und die Stauchung / Dehnung in horizontaler und vertikaler Richtung sowie die Drehung um einen Normalenvektor auf der gedachten Projektionsfläche 30 repräsentieren. Auf die Blickpfadbündel 26 in Form von Verschiebungen, Stauchungen/Dehnungen und Drehung an gewendet, führen diese Korrekturparameter zur Überführung zur Referenzstruktur 28.
Nach Ermittlung der Korrekturparameter kann das Eye-Tracking-System 10 nachfolgend erfasste Blickrichtungen 122 oder Blickpfade 124 mittels dieses Korrekturparameter normieren, also die Blick richtungen 122 derart umrechnen, dass sie zur weiteren Verarbeitung geeignet sind. Dieser nachfol gende Betrieb des durch die Ermittlung der Korrekturparameter kalibrierten Eye-Tracking-Systems 10 kann insbesondere dem Zweck dienen, die Blickrichtung des Fahrzeugführers 2 dahingehend auszu werten, dass seine Konzentration auf das Verkehrsgeschehen bewertet wird. Insbesondere kann durch die Auswertung im Falle eines teilautonomen Fährbetriebs des Fahrzeugs abgeschätzt werden, wie lange der Fahrzeugführer 2 voraussichtlich ausgehend von einer beispielsweise akustischen Sig nalisierung benötigen wird, bis er die Kontrolle über das Fahrzeug wieder übernehmen kann.
Die einfachste Art der Weiterverarbeitung von mit dem kalibrierten Eye-Tracking-System erfassten Blickrichtungen liegt darin, sicher zu ermitteln, wo der Fahrer gegenwärtig hinschaut, beispielsweise auf das Verkehrsgeschehen vor dem Fahrzeug oder im Rückspiegel, oder aber beispielsweise auf In strumente des Fahrzeugs oder ein Multimedia-System oder dergleichen. Die Positionen dieser Kom ponenten im Fahrzeug sind bekannt (AOI = Areas of Interest) und die Blickrichtungen des Fahrzeug führers 2 können aufgrund der vorherigen Kalibrierung zuverlässig zugeordnet werden.
Insbesondere von Vorteil ist es, wenn im kalibrierten Betrieb die Auswertung der Blickrichtung 122 des Fahrzeugführers 2 und ihres zeitlichen Verlaufs in der im eingangs genannten Artikel„SubsMatch 2.0: Scanpath comparison and Classification based on subsequence frequencies“ beschriebenen Weise entsprechend erfolgt.
Dies bedeutet, dass der im kalibrierten Betrieb erfasste Blickpfad in Teilabschnitte 27 zerlegt wird, die im oben referenzierten Artikel als„n-grams“ bezeichnet werden. Bei diesen Teilabschnitten 27 han delt es sich um Teilabschnitte 27 des Blickpfades 124, die üblicherweise zwischen 0,1 Sekunde und 1,0 Sekunde repräsentieren. Sie eignen sich sehr gut als Eingangsgröße eines trainierten maschinellen Lernsystems. Ein solches trainiertes maschinelles Lernsystem kann sowohl für eine Auswertung ge nutzt werden, deren Zielinformation eine Bestimmung der Tätigkeit des Fahrers ist. Sie kann aber insbesondere auch ohne Ermittlung von Zwischenwerten die Tätigkeit betreffend eine unmittelbare Beurteilung als Zielinformation haben, ob der Fahrzeugführer zur Übernahme der Fahrzeugkontrolle aus einem autonomen Fahrmodus bereit ist bzw. welche Zeitdauer bis zur Übernahmebereitschaft zu erwarten ist.
Die Fig. 10 bis 13D verdeutlichen ein solches Verfahren.
Fig. 10 zeigt die Fahrsituation. Der Blickvektor 20 des Fahrers 2 wird durch das kalibrierte Eye- Tracking-System 10 erfasst und sein Schnittpunkt mit der gedachten Projektionsfläche 30 als Blick richtung 22 zur Weiterverarbeitung zur Verfügung gestellt. Die Blickrichtung 22 wird mit einer Fre quenz von beispielsweise 50 Hz ermittelt. Die Sequenz der Blickrichtungen 22 bildet den Blickpfad 24.
Die während der Kalibrierung erfassten Korrekturparameter werden genutzt, um den erfasste Blick pfad 24 in einen normierten Blickpfad 124 umzuwandeln. Dieser ist in Fig. 10 gepunktet dargestellt.
Zum Zwecke der Auswertung wird dieser normierte Blickpfad 124 nun auf die Referenzstruktur 28 projiziert und bildet somit einen vereinfachten normierten Blickpfad 124‘. Der so geänderte verein fachte Blickpfad 124‘ ist in Fig. 12 dargestellt. Dieser Blickpfad 124‘ wird nun in die genannten Teilab- schnitte 27 umgewandelt, die in den Fig. 13A bis 13D durch eine durchgezogene Hervorhebung darge stellt sind.
Die Teilabschnitte 27 stellen also Teilabschnitte des vereinfachten normierten Blickpfades 124“ dar, wobei es typischerweise, jedoch nicht zwingend, Teilabschnitte 27 übereinstimmender Zeitdauer sind. Eine solche Zeitdauer kann beispielsweise zwischen 0,1 Sekunde und 1,0 Sekunde betragen.
Wie anhand der Fig. 13A bis 13D zu ersehen ist, überlappen die Teilabschnitte 27 hierbei.
Zu Bewertung des Fahrzeugführers 2 und seiner Übernahmebereitschaft kann beispielsweise ein normierter Blickpfad 124, der 15 Sekunden repräsentiert, in der oben skizzierten Weise durch die Re- ferenzstrukur 28 vereinfacht werden, so dass er den vereinfachten Blickpfad 124‘ bildet, und dann in 900 überlappende Teilabschnitte 27 von 0,1 Sekunde Länge aufgegliedert werden.
Diese 900 Teilabschnitte 27 werden dahingehend ausgewertet, dass die Anzahl jeweils typgleicher Teilabschnitte 27 gezählt wird und die ermittelten Werte mittels eines trainierten maschinellen Lern systems ausgewertet werden. Hierdurch kann eine Abschätzung darüber erzeugt werden, wie lange der Fahrzeugführer 2 voraussichtlich benötigen wird, um die Kontrolle über das Fahrzeug wieder zu übernehmen.
Die zwei hier unterschiedenen Phasen des Betriebs, die einleitende Phase der Kalibrierung (Fig. 1 bis 9) und die nachfolgende Phase der Auswertung (Fig. 10 bis 13), müssen nicht klar voneinander abge grenzt sein. Auch ist es möglich, dass die Auswertung der Blickrichtungen und gegebenenfalls des sich ergebenden Blickpfades bereits während der Phase der Kalibrierung erfolgt, entweder ohne Korrek turparameter oder mit jenen, die bei der letzten Fahrt des Fahrzeugführer oder einer anderen Person ermittelt wurden.
Weiterhin kann die Kalibrierung auch wiederholt werden oder es können die Korrekturparameter im Rahmen einer durchgängigen Kalibrierung laufend aktualisiert werden, beispielsweise auf Basis des Blickpfades der jeweils vorherigen 60 Sekunden.

Claims

Patentansprüche
1. Verfahren zum Kalibrieren eines Eye-Tracking- Systems (10), insbesondere in einem Kraftfahr zeug, mit den folgenden Merkmalen: a. die Augen (3) einer Person (2) werden mittels eines Kamerasystems (12) erfasst, die Blick richtung (22) der Person wird anhand optisch erfasster Merkmale ermittelt und es wird ein Blickpfad (24) ermittelt, der den zeitlichen Verlauf der Blickrichtung (22) und ihrer Ände rung wiedergibt, und b. auf Basis des ermittelten Blickpfades (24) werden mittels Clustering Blickpfadbündel (26) häufig benutzte Teilpfade des ermittelten Blickpfades (24) ermittelt, und c. die ermittelten Blickpfadbündel (26) werden ausgewertet, wobei hieraus Korrekturparame ter abgeleitet werden, die bei späterer Auswertung weiterer erfasster Blickrichtungen (122) und/oder Blickpfade (124) zum Zwecke der Datennormierung herangezogen werden.
2. Verfahren nach Anspruch 1 mit den folgenden zusätzlichen Merkmalen: a. das Clustering zur Ermittlung von Blickpfadbündeln (26) umfasst eine Clustering-Sequenz mit den folgenden Schritten: es erfolgt ein Resampling des ermittelten Blickpfades (24) bzw. des aus einer zuvor durchgeführten Clustering-Sequenz hervorgegangenen modifizierten Blickpfades (24“), wobei der resampelte Blickpfad (24‘) durch Knoten (25‘) gebildet wird, die zueinander identisch beabstandet sind oder deren Anordnung anderweitig nicht mehr durch die Geschwindigkeit der zeitlichen Änderung der Blickrichtung (22) beeinflusst ist, und es wird eine Dichtekarte (40) anhand des resampelten Blickpfades (24‘) erzeugt, zumindest ein Teil der Knoten (25‘) des resampelten Blickpfades (24‘) werden in Rich tung lokaler Maxima der Dichtekarte (40) verschoben und bilden gemeinsam einen modifizierten Blickpfad (24“) der Clustering-Sequenz.
3. Verfahren nach Anspruch 2 mit den folgenden zusätzlichen Merkmalen: a. die Clustering-Sequenz wird mehrfach durchgeführt, wobei der bei einem vorherigen Durchlauf der Clustering-Sequenz modifizierte Blickpfad (24“) mit den in Richtung lokaler Maxima verschobenen Knoten (25“) den Eingangs-Blickpfad für einen nachfolgenden Durchlauf der Clustering-Sequenz bildet, insbesondere mit dem folgenden zusätzlichen Merkmal: b. die Clustering-Sequenz wird zwischen 5-mal und 400-mal durchgeführt, insbesondere zwi schen 10-mal und 200-mal.
4. Verfahren nach einem der Ansprüche 1 bis 3 mit den folgenden zusätzlichen Merkmalen: a. zur Erfassung der Blickrichtung (22) des Fahrers wird eine Videokamera verwendet, die das Gesicht des Fahrers zumindest auch im Nahinfrarot-Spektralbereich (Wellenlängenbereich: 780 nm bis 1000 nm) erfasst.
5. Verfahren nach einem der vorstehenden Ansprüche mit den folgenden zusätzlichen Merkmalen: a. die Auswertung der ermittelten Blickpfadbündel (26) häufig benutzter Teilpfade erfolgt durch einen Vergleich mit hinterlegten Referenzwerten, insbesondere durch lineare Opti mierung.
6. Verfahren nach einem der vorstehenden Ansprüche mit den folgenden zusätzlichen Merkmalen: a. die abgeleiteten Korrekturparameter umfassen mindestens einige und vorzugsweise alle folgenden Korrekturparameter:
Translationsparameter (horizontal und/oder vertikal), die eine horizontale bzw. verti kale Verlagerung der ermittelten Blickpfadbündel (26) gegenüber Referenzwerten wie dergeben, und/oder
Skalierungsparameter (horizontal und/oder vertikal, die eine horizontale bzw. vertikale Stauchung oder Vergrößerung der ermittelten Blickpfadbündel (26) gegenüber Refe renzwerten wiedergeben, und/oder ein Rotationsparameter, der eine Drehung der ermittelten Blickpfadbündel (26) um ei ne Fahrzeuglängsachse gegenüber Referenzwerten wiedergibt.
7. Verfahren nach einem der vorstehenden Ansprüche mit den folgenden zusätzlichen Merkmalen: a. die optisch erfassten Merkmale zur Ermittlung der Blickrichtung umfassen die Erfassung eines Pupillenzentrums der Person (2), die Erfassung einer Pupillenkontur der Person (2), die Erfassung einer Augenkontur der Person (2), die Erfassung einer Iriskontur der Person (2), die Erfassung eines Augenlides der Person und/oder die Erfassung von Reflexen auf ei ner Augenhornhaut der Person (2).
8. Verfahren zur Ermittlung des Verhaltens einer Person (2) mittels eines Eye-Tracking-Systems
(10) mit den folgenden Merkmalen: a. das Eye-Tracking-System (10) wird mittels des Verfahrens nach einem der Ansprüche 1 bis 7 kalibriert, und b. die Augen der Person (2) werden mittels eines Kamerasystems erfasst, die Blickrichtung der Person wird anhand optisch erfasster Merkmale ermittelt, und c. die erfasste Blickrichtung (22) wird anhand der im Rahmen der Kalibrierung ermittelten Korrekturparameter normiert und die normierte Blickrichtung (122) wird nachfolgend aus gewertet.
9. Verfahren nach Anspruch 8 mit dem folgenden Merkmal: c. auf Basis der normierten Blickrichtungen (122) wird ein normierter Blickpfad (124) ermit telt, der den zeitlichen Verlauf der Blickrichtung (122) und ihrer Änderung wiedergibt.
10. Verfahren nach Anspruch 9 mit den folgenden zusätzlichen Merkmalen: a. die Auswertung des normierten Blickpfades (124) erfolgt mittels des folgenden Verfahrens: der normierte Blickpfad (124) oder ein hieraus abgeleiteter vereinfachter normierter Blickpfad (124‘), der durch Clustering / Anpassung des normierten Blickpfades (124) in Richtung einer durch Referenzdaten definierten Struktur (28) erzeugt wird, wird in Teil abschnitte (27) untergliedert, und
die Auswertung des Blickpfades (124, 124‘) erfolgt anhand dieser Teilabschnitte (27), wobei vorzugsweise Vorkommnisse übereinstimmender oder einander ähnlicher Teil abschnitte (27) des Blickpfades (124, 124‘) gezählt werden und die hierdurch bestimm ten Werte als Eingangsgröße eines trainierten maschinellen Lernsystems verwendet werden, vorzugsweise mit den weiteren zusätzlichen Merkmalen: b. die Auswertung der Teilabschnitte erfolgt mittels des Verfahrens„Support Vector Machine“ als trainiertes maschinelles Lernsystem.
11. Verfahren nach Anspruch 10 mit den folgenden zusätzlichen Merkmalen: a. zur Bildung der Teilabschnitte (27) wird der normierte Blickpfad (124, 124‘) in einem zu rückliegenden Zeitraum zwischen 5 Sekunden und 300 Sekunden Länge ausgewertet, ins besondere in einem zurückliegenden Zeitraum zwischen 15 Sekunden und 60 Sekunden Länge.
12. Verfahren nach einem der Ansprüche 8 bis 11 mit den folgenden zusätzlichen Merkmalen: a. die Auswertung des normierten Blickpfades (124, 124‘) umfasst eine Klassifizierung der ak tuellen Tätigkeit der Person.
13. Verfahren nach einem der Ansprüche 8 bis 12 mit den folgenden zusätzlichen Merkmalen: a. die Auswertung des normierten Blickpfades (124, 124‘) umfasst die Ermittlung eines für die Übernahmebereitschaft der Person charakteristischen Wertes.
14. Verfahren nach einem der Ansprüche 8 bis 13 mit den folgenden zusätzlichen Merkmalen: a. die Kalibrierung erfolgt mehrfach, wobei wiederholt aktualisierte Korrekturparameter er mittelt werden.
15. Eye-Tracking-System oder Fahrzeug oder Flugzeug mit einem Eye-Tracking-System mit den folgenden Merkmalen: a. das Eye-T racking-System (10) umfasst mindestens oder genau ein Kamerasystem (12) und b. das Eye-Tracking-System umfasst eine mit dem Kamerasystem (12) verbundene Auswer teeinheit (14), gekennzeichnet durch das Merkmal: c. die Auswerteeinheit (14) ist zur Durchführung eines Verfahren zum Kalibrieren gemäß ei nem der Ansprüche 1 bis 7 ausgebildet, vorzugsweise mit den folgenden zusätzlichen Merkmalen: d. die Auswerteeinheit (14) ist zusätzlich zur Durchführung eines Verfahrens zur Auswertung des Verhaltens eines Fahrzeugführers gemäß einem der Ansprüche 8 bis 14 ausgebildet.
EP18737837.7A 2018-06-27 2018-06-27 Verfahren zum kalibrieren eines eye-tracking-systems, verfahren zur auswertung des verhaltens einer person mittels eines eye-tracking-systems sowie eye-tracking-system und kraftfahrzeug mit einem solchen eye-tracking-system Pending EP3814872A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2018/067315 WO2020001767A1 (de) 2018-06-27 2018-06-27 Verfahren zum kalibrieren eines eye-tracking-systems, verfahren zur auswertung des verhaltens einer person mittels eines eye-tracking-systems sowie eye-tracking-system und kraftfahrzeug mit einem solchen eye-tracking-system

Publications (1)

Publication Number Publication Date
EP3814872A1 true EP3814872A1 (de) 2021-05-05

Family

ID=62842077

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18737837.7A Pending EP3814872A1 (de) 2018-06-27 2018-06-27 Verfahren zum kalibrieren eines eye-tracking-systems, verfahren zur auswertung des verhaltens einer person mittels eines eye-tracking-systems sowie eye-tracking-system und kraftfahrzeug mit einem solchen eye-tracking-system

Country Status (2)

Country Link
EP (1) EP3814872A1 (de)
WO (1) WO2020001767A1 (de)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012105664A1 (de) * 2012-06-28 2014-04-10 Oliver Hein Verfahren und Vorrichtung zur Kodierung von Augen- und Blickverlaufsdaten

Also Published As

Publication number Publication date
WO2020001767A1 (de) 2020-01-02

Similar Documents

Publication Publication Date Title
EP1789906B1 (de) Verfahren zur bildbasierten fahreridentifikation in einem kraftfahrzeug
DE112017002765T5 (de) Zustandsabschätzungsvorrichtung, Zustandsabschätzungsverfahren und Zustandsabschätzungsprogramm
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE102012223481B4 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
DE112014000591T5 (de) Aufmerksamkeitsgrad-Erfassungsgerät und Aufmerksamkeitsgrad-Erfassungsverfahren
DE102015203354A1 (de) Einstellungen von fahrzeugbedienerüberwachung und betriebsabläufen
DE102016119698A1 (de) Fahrzeugsteuerungssystem
EP2220588A1 (de) Konfigurationsmodul für ein überwachungssystem, überwachungssystem, verfahren zur konfiguration des überwachungssystems sowie computerprogramm
DE112017007258T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades
DE102019115330A1 (de) Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver
EP2562681A1 (de) Objektverfolgungsverfahren für ein Kamerabasiertes Fahrerassistenzsystem
DE112017007248T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades
DE102019122250A1 (de) Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
DE102008007152B4 (de) Verfahren zur Parametrisierung des Augenöffnungsgrades eines Fahrers eines Kraftfahrzeugs
WO2018149768A1 (de) Automatisierte aktivierung eines sichtunterstützungssystems
EP3802285B1 (de) Verfahren und fahrzeugsystem zur optimierung von parkvorschlägen
EP3814872A1 (de) Verfahren zum kalibrieren eines eye-tracking-systems, verfahren zur auswertung des verhaltens einer person mittels eines eye-tracking-systems sowie eye-tracking-system und kraftfahrzeug mit einem solchen eye-tracking-system
DE112017007950T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102019205137B4 (de) Verfahren zur Einparkunterstützung eines Kraftfahrzeuges in eine Quer-Parklücke
WO2021204431A1 (de) Verfahren zur einstellung eines fahrzeugspiegels und/oder eines bildschirms und system zum ausführen des verfahrens
DE102012020778B4 (de) Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung
AT515340B1 (de) Verfahren zur Erstellung von Stereo-Digitalbildern
DE102018109466A1 (de) Verfahren zum Erfassen eines Parkplatzes für ein Fahrzeug
WO2019029966A1 (de) Verfahren und vorrichtung zur fahrerzustandsbewertung sowie fahrzeug
DE112017007253T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210125

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20221207