WO2017129306A1 - Method and device for locating a head of a driver in a vehicle and head localization system - Google Patents

Method and device for locating a head of a driver in a vehicle and head localization system Download PDF

Info

Publication number
WO2017129306A1
WO2017129306A1 PCT/EP2016/080883 EP2016080883W WO2017129306A1 WO 2017129306 A1 WO2017129306 A1 WO 2017129306A1 EP 2016080883 W EP2016080883 W EP 2016080883W WO 2017129306 A1 WO2017129306 A1 WO 2017129306A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
image signal
value
localization
sensor
Prior art date
Application number
PCT/EP2016/080883
Other languages
German (de)
French (fr)
Inventor
Anke SCHWARZ
Zhuang LIN
Rainer Stiefelhagen
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2017129306A1 publication Critical patent/WO2017129306A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Definitions

  • the invention is based on a device or a method according to the preamble of the independent claims.
  • the subject of the present invention is also a computer program.
  • a driver can, for example, a
  • a corresponding Kopfposen is, for example, in a 2-D image-based method or using depth data for
  • a method for locating a driver's head in a vehicle comprising the steps of: Reading a 3-D image signal representing a three-dimensional image of the head detected by at least one sensor of the vehicle; and
  • the sensor may in particular be a photonic mixer detector, PMD sensor for short.
  • the sensor can for example be part of a time-of-flight camera, TOF camera for short.
  • the sensor can be designed to illuminate a scene comprising the head by means of a light pulse and to measure for each pixel a transit time of the light from the sensor to the head and back, the transit time being directly proportional to the distance of the pixel from the sensor.
  • the sensor can thus detect a specific distance to the head for each pixel.
  • the head can with a single
  • Depth of field can be completely detected by the sensor.
  • Regression methods can be understood as a statistical analysis method for performing a regression analysis by which relationships between a dependent and one or more independent variables can be modeled. For example, a functional relationship determined by the regression method may be used to generate a
  • the regression method may be based on a linear regression in which a model can be specified by a linear combination of different variables.
  • the location value may be a location, i. H. a position, or a position, d. H. to represent an orientation of the head.
  • the localization value may include, for example, space coordinates or inclination angles of the head in an x, y, or z direction.
  • the approach described here is based on the finding that depth data from a recording of a driver's head produced by a 3-D sensor can be evaluated by means of a regression-based method in such a way that a pose of the head, in particular an orientation of the head, is fast and accurate robust can be determined.
  • the depth data can be generated by a TOF camera with its own light source. The advantage of such an evaluation is thus that it is particularly robust to varying light conditions, that is largely independent of light conditions in the vicinity of the head can be performed.
  • the approach presented here can significantly reduce errors in the determination of the head pose. At the same time, the efficiency of a depth-based head pose estimation can be significantly increased.
  • the 3-D image signal may be evaluated to provide a location and, additionally or alternatively, a location of the head as the location value.
  • a location can be understood as meaning a position of the head in the vehicle interior. Under a position of the head can be understood an orientation of the head in the vehicle interior, d. h., the head can change its position by displacement and its position by twisting.
  • the localization value may be cubic or planar coordinates to the tri-or
  • the head with high accuracy and
  • the 3-D image signal may be evaluated to generate a roll angle of the head as the localization value.
  • a pitch or yaw angle of the head may be generated as the location value.
  • a roll angle may be understood to mean an angle representing rotation of the head about a longitudinal axis of the head.
  • a nickel angle may be understood to mean an angle representing rotation of the head about a transverse axis of the head.
  • a yaw angle may be understood to mean an angle representing rotation of the head about a vertical axis of the head.
  • the method may comprise a step of determining, depending on the embodiment, a line of sight, a tiredness or a
  • Attention of the driver using the localization value can be determined.
  • the viewing direction, fatigue or attention may serve as an input to a controller for controlling the vehicle.
  • a control signal for controlling the vehicle may be provided depending on the viewing direction, tiredness or attention.
  • the control signal may be used to control a driver assistance function of the vehicle.
  • the vehicle can be controlled depending on the viewing direction, fatigue or attention, whereby the ride comfort and the traffic safety can be increased.
  • the step of evaluating the vehicle in the step of evaluating the vehicle
  • 3-D image signal using at least one regression tree and, additionally or alternatively, at least one regression forest are evaluated.
  • a regression tree can be understood as an ordered, directed tree which serves to display hierarchically successive regression rules.
  • a regression forest can be understood as a set of interrelated regression trees.
  • the 3-D image signal can be evaluated particularly efficiently and precisely. It is also advantageous if, in the reading-in step, a 2-D image signal is read in which represents a two-dimensional image of the head detected by the sensor and, additionally or alternatively, at least one further sensor. Accordingly, in the step of evaluating, the 2-D image signal may be further evaluated to generate the localization value.
  • Localization value is read to locate the head.
  • the earlier localization value may represent an older value than the localization value. This can be done in the step of evaluating using the previous localization value, at least one local binary feature will be extracted from the 3-D image signal. Using the local binary feature and at least one global linear regression rule, a deviation value representing a deviation between the previous localization value and the localization value can then be determined. Finally, the localization value may be a function of the previous one
  • Localization value and the deviation value are generated.
  • a local binary feature may be understood a binary feature that can be extracted from depth data representing a local area of the head, for example using a regression tree or forest.
  • a global linear regression law may be understood as a rule for performing a linear regression that relates to an entire region of the head.
  • the regression rule may include regression trees or forests. This embodiment enables precise localization of the head in real time.
  • the step of evaluating the 3-D image signal in the step of evaluating the 3-D image signal can be evaluated using quaternions for representing a rotation of the head about at least one axis of rotation.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • the approach presented here also provides a device which is designed to implement the steps of a variant of a method presented here
  • the device can have at least one computing unit for processing signals or data, at least one memory unit for storing Signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting data or control signals to the actuator and / or at least one
  • the arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit is a flash memory, an EPROM or a
  • the magnetic storage unit can be.
  • the communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
  • a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the device may have an interface, which may be formed in hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • the interfaces are their own integrated circuits or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • the device is used to control the vehicle.
  • the device can access, for example, sensor signals such as steering angle, acceleration or environmental sensor signals. It is controlled by actuators such as steering or brake actuators or a
  • the approach presented here also creates a head localization system with the following features: a device according to a preceding embodiment; and at least one sensor for generating the 3-D image signal.
  • a device according to a preceding embodiment and at least one sensor for generating the 3-D image signal.
  • a sensor for generating the 3-D image signal is also a computer program product or computer program with
  • Program code which may be stored on a machine-readable medium or storage medium, such as a semiconductor memory, a hard disk memory or an optical memory, and for carrying out, implementing and / or controlling the steps of the method according to one of the above
  • Program product or program is executed on a computer or a device.
  • Fig. 1 is a schematic representation of a vehicle with a
  • FIG. 2 is a schematic representation of a device according to a
  • FIG. 3 is a flowchart of a method according to a
  • FIG. 5 is a schematic representation of a sequence of a
  • FIG. 6 is a flowchart of a method according to a
  • FIG. 1 shows a schematic representation of a vehicle 100 with a head localization system 102 according to one exemplary embodiment.
  • Head localization system 102 includes a sensor 104, such as a TOF camera, and a device 106 connected to the sensor 104.
  • the sensor 104 is configured to capture a three-dimensional image of a head 108 of a driver 110 of the vehicle 100 and to send a 3-D image signal 112 representing the three-dimensional image to the device 106.
  • the device 106 is configured to evaluate the 3-D image signal 112 using a regression method to image the head 108 in FIG.
  • the device 106 generates a location value 114 representing, for example, a head position or orientation.
  • the device 106 makes it possible to determine the head orientation as robustly as possible and in real time, even in the case of strong occlusions.
  • Steering angle signal can be generated as when driving with increased fatigue.
  • FIG. 2 shows a schematic representation of a device 106 according to a
  • the device 106 is, for example, a device described above with reference to FIG.
  • the device 106 comprises a read-in unit 210 for reading in the 3-D image signal 112.
  • the read-in unit 210 is connected to an evaluation unit 220, which is designed to receive the 3-D image signal 112 from the read-in unit 210 and using the regression method evaluate. As a result of the evaluation, the evaluation unit 220 outputs the localization value 114.
  • the evaluation unit 220 outputs the
  • Localization value 114 to an optional determination unit 230 configured to determine a driver's line of sight, fatigue, or attention using the localization value 114, and to generate an output signal 235 representing sight, fatigue, or attention.
  • the evaluation unit 220 generates a value as the localization value 114, which represents a location or a position of the head in the vehicle interior, wherein the position is defined, for example, by an angle value representing a roll, pitch or yaw angle of the head.
  • the determination unit 230 determines the viewing direction, fatigue, or attention depending on the location or location of the head.
  • the device 106 includes a provisioning unit 240 configured to receive the output signal 235 from the determination unit 230 and to provide, using the output signal 235, a control signal 245 for controlling the vehicle, for example to a vehicle
  • Control signal 245 thus serves to control the vehicle depending on the driver's gaze, fatigue or attention.
  • the read-in unit 210 is designed to read in an optional 2-D image signal 250 in addition to the 3-D image signal 112 and to forward it to the evaluation unit 220.
  • the 2-D image signal 250 from either the sensor producing the 3-D image signal 112 or from another sensor of the
  • Evaluation unit 220 may be configured to further use the 2-D image signal 250 to generate the localization value 114.
  • the 3-D image signal 112 can be evaluated using the 2-D image signal 250.
  • FIG. 3 shows a flowchart of a method 300 according to FIG.
  • Embodiment. The method 300 for efficient
  • head orientation estimation of depth data may be in the
  • the driver is continuously detected by a depth sensor.
  • the sensor captures both 2-D data and depth data. From the data received will be
  • Head position and orientation determined. It then turns the line of sight, a level of drowsiness, the attention or certain
  • the driver is through a block 302, an input through a block 304, the sensor through a block 306, the head position and orientation by a block 308, a computing unit for processing the sensor data through a block 310, an output a block 312, the viewing direction through a block 314, the level of drowsiness through a block 316, the attention through a block 318 and a safety setting, such as an adjustment for an airbag, represented by a block 320.
  • FIG. 4 shows a schematic representation of a sequence 400 of a
  • the head pose estimation can be performed, for example, using a device as described above with reference to FIGS. 1 to 3. Shown is a step-by-step approach to a head pose estimation from depth images. In this case, an update ⁇ 1 of a head orientation and position is calculated in each step t, hereinafter also referred to as the deviation value.
  • the head orientation and position ⁇ 1 of a step t is indicated by an arrow.
  • the head pose estimation is based on a step-by-step regression technique. This allows the head orientation and position to be estimated with very high efficiency.
  • a step-by-step regression technique This allows the head orientation and position to be estimated with very high efficiency.
  • Update of head orientation and position calculated According to an exemplary embodiment, an extraction of local binary features based on depth data is performed for this purpose. Such feature extraction is performed using local regions that have been projected relative to the head orientation and position. By using the quaternion representation, the head orientation can be determined directly via a global linear regression.
  • FIG. 5 shows a schematic representation of a sequence 500 of a
  • the sequence 500 shown in FIG. 5 is an overview of sub-steps of a preceding with reference to FIG. 4
  • the input data is a former
  • a deviation value ⁇ 1 is determined in a step 510, which in turn is divided into two sub-steps 520 530.
  • Local binary features ⁇ 1 are calculated in the first sub-step 520.
  • the local binary features are schematically indicated by circled points in Fig. 5.
  • a global linear mapping W 1 is carried out Updating the head pose ⁇ 1 is used in step 540 using the
  • the aim of the approach presented here is, according to one embodiment, a location and a rotation of the head on the basis of a single
  • each step provides an update to the correct head orientation and position.
  • a global linear regression W is applied in each step t.
  • a training will be described by which regression forests are learned to determine the local linear features ⁇ 1 .
  • the global linear projection W is trained. This is the test phase
  • the advantage of using quaternions is that they allow a rotation of a four-dimensional vector to be represented in a compact manner. In comparison to Euler angles, rotations can be calculated in a more efficient way. This can increase the efficiency in the stepwise determination of the head orientation.
  • the facial area is made using a commercial
  • Face detector detected in the preprocessing phase.
  • the local binary features ⁇ 1 are calculated from regression forests. To learn the regression forests, the depth data D is used instead of two-dimensional color information.
  • the training requires two-dimensional ground-truth positions S ⁇ and two-dimensional positions of the previous step S "1. For each frame i, the ground truth positions 5 ; e R kxl are generated by dividing K local areas of a three-dimensional
  • Mean face relative to the ground Truth head orientation and position are projected.
  • the projection of these local areas by using the determined head orientation from the previous step t-1 results in the two-dimensional positions of the previous step S ' ⁇ l e R kx2.
  • a binary forest is trained independently of each other.
  • the learned forests are applied to the k local areas of the earlier step S -1 to obtain the binary feature vector ⁇ '.
  • the binary feature vector is 1 when the pattern reaches a leaf node.
  • Deviation ⁇ ' can be determined from a current head position and orientation.
  • a suitable mapping W is learned using the previously determined binary vector ⁇ 'and the residual ⁇ - 5 with respect to the ground-truth head pose.
  • the optimal global linear regression W is obtained by minimizing the following objective function:
  • ground truth residuals are determined as follows: where R ; is the ⁇ from the quaternions ⁇ calculated rotation matrix represents and R '1 of 0 / "1 calculated.
  • AR ⁇ is the rotation matrix calculated from the quaternions ⁇ '.
  • R ⁇ is the rotation matrix calculated from the quaternions 0 1 .
  • the head position and the head orientation ⁇ ; , ⁇ ,, ⁇ , ⁇ from an unknown distance image D, are determined.
  • a residual of the head position and orientation ⁇ 'relative to the current head orientation is determined.
  • a local substep 520 and a global substep 530 are performed.
  • Deviation value ⁇ ' ⁇ /', ⁇ 0 ⁇ linked as described in equation (4).
  • FIG. 6 shows a flowchart of a method 600 according to FIG.
  • Embodiment The method can be performed or controlled, for example, in connection with a device described above with reference to FIGS. 1 to 4.
  • the steps described with reference to FIGS. 4 and 5 can be sub-steps of the method 600.
  • the method 600 includes a step 610 in which the 3-D image signal is read.
  • the 3-D image signal is evaluated using a regression method to generate the localization value.
  • the 3-D image signal is generated in step 620 using at least one regression tree or one
  • Regression forest evaluated such as in a manner as described above with reference to FIG. 5.
  • Steps 610, 620 may be performed continuously. If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method for locating a head (108) of a driver (110) in a vehicle (100). First, a 3D image signal (112) is read in, which represents a three-dimensional image of the head (108) that has been detected by the at least one sensor (104) of the vehicle (100). Subsequently, the 3D image signal (112) is evaluated using a regression method in order to establish a localization value (114) for locating the head (108).

Description

Beschreibung Titel  Description title
Verfahren und Vorrichtung zum Lokalisieren eines Kopfes eines Fahrers in einem Fahrzeug und Kopflokalisierungssystem  Method and device for locating a head of a driver in a vehicle and head localization system
Stand der Technik State of the art
Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm. The invention is based on a device or a method according to the preamble of the independent claims. The subject of the present invention is also a computer program.
Anhand der Kopforientierung eines Fahrers kann beispielsweise eine Based on the Kopforientierung a driver can, for example, a
Spurwechselabsicht, eine Aufmerksamkeit oder eine Müdigkeit des Fahrers ermittelt werden. Eine entsprechende Kopfposenschätzung kann beispielsweise in einem 2-D-Bild-basierten Verfahren oder mittels Tiefendaten zur Lane change intent, attention or fatigue of the driver. A corresponding Kopfposenschätzung, for example, in a 2-D image-based method or using depth data for
echtzeitfähigen Kopfposenschätzung realisiert werden. Real-time capable Kopfposenschätzung be realized.
Offenbarung der Erfindung Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Lokalisieren eines Kopfes eines Fahrers in einem Fahrzeug, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, ein Kopflokalisierungssystem sowie schließlich ein entsprechendes Computerprogramm gemäß den DISCLOSURE OF THE INVENTION Against this background, with the approach presented here, a method for locating a head of a driver in a vehicle, a device using this method, a head localization system, and finally a corresponding computer program according to FIGS
Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich. Main claims presented. The measures listed in the dependent claims advantageous refinements and improvements of the independent claim device are possible.
Es wird ein Verfahren zum Lokalisieren eines Kopfes eines Fahrers in einem Fahrzeug vorgestellt, wobei das Verfahren folgende Schritte umfasst: Einlesen eines 3-D-Bildsignals, das ein von zumindest einem Sensor des Fahrzeugs erfasstes dreidimensionales Bild des Kopfes repräsentiert; und A method for locating a driver's head in a vehicle is presented, the method comprising the steps of: Reading a 3-D image signal representing a three-dimensional image of the head detected by at least one sensor of the vehicle; and
Auswerten des 3-D-Bildsignals unter Verwendung eines Regressionsverfahrens, um einen Lokalisierungswert zum Lokalisieren des Kopfes zu erzeugen. Evaluating the 3-D image signal using a regression method to produce a localization value for locating the head.
Bei dem Sensor kann es sich insbesondere um einen Photomischdetektor, kurz PMD-Sensor, handeln. Der Sensor kann beispielsweise Teil einer Time-of-Flight- Kamera, kurz TOF-Kamera, sein. Hierbei kann der Sensor ausgebildet sein, um eine den Kopf umfassende Szene mittels eines Lichtpulses auszuleuchten und für jeden Bildpunkt eine Laufzeit des Lichts vom Sensor zum Kopf und zurück zu messen, wobei die Laufzeit direkt proportional zur Entfernung des Bildpunktes vom Sensor ist. Der Sensor kann somit für jeden Bildpunkt eine bestimmte Entfernung zum Kopf erfassen. Hierbei kann der Kopf mit einer einzigen The sensor may in particular be a photonic mixer detector, PMD sensor for short. The sensor can for example be part of a time-of-flight camera, TOF camera for short. In this case, the sensor can be designed to illuminate a scene comprising the head by means of a light pulse and to measure for each pixel a transit time of the light from the sensor to the head and back, the transit time being directly proportional to the distance of the pixel from the sensor. The sensor can thus detect a specific distance to the head for each pixel. Here, the head can with a single
Tiefenaufnahme vollständig durch den Sensor erfasst werden. Unter einemDepth of field can be completely detected by the sensor. Under a
Regressionsverfahren kann ein statistisches Analyseverfahren zum Durchführen einer Regressionsanalyse verstanden werden, durch die Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen modelliert werden können. Beispielsweise kann ein durch das Regressionsverfahren ermittelter funktionaler Zusammenhang verwendet werden, um ein Regression methods can be understood as a statistical analysis method for performing a regression analysis by which relationships between a dependent and one or more independent variables can be modeled. For example, a functional relationship determined by the regression method may be used to generate a
Vorhersagemodell zum Vorhersagen einer Kopfpose des Kopfes zu erstellen. Hierbei kann das Regressionsverfahren etwa auf einer linearen Regression basieren, bei der ein Modell durch eine Linearkombination verschiedener Variablen spezifiziert werden kann. Der Lokalisierungswert kann beispielsweise einen Ort, d. h. eine Position, oder eine Lage, d. h. eine Orientierung, des Kopfes repräsentieren. Hierbei kann der Lokalisierungswert etwa Raumkoordinaten oder Neigungswinkel des Kopfes in einer x-, y- oder z-Richtung umfassen.  Predictive model for predicting a head pose of the head. For example, the regression method may be based on a linear regression in which a model can be specified by a linear combination of different variables. For example, the location value may be a location, i. H. a position, or a position, d. H. to represent an orientation of the head. Here, the localization value may include, for example, space coordinates or inclination angles of the head in an x, y, or z direction.
Der hier beschriebene Ansatz beruht auf der Erkenntnis, dass Tiefendaten aus einer durch einen 3-D-Sensor erstellten Aufnahme eines Kopfes eines Fahrers mittels eines regressionsbasierten Verfahrens derart ausgewertet werden können, dass eine Pose des Kopfes, insbesondere etwa eine Orientierung des Kopfes, schnell und robust ermittelt werden kann. Beispielsweise können die Tiefendaten von einer TOF-Kamera mit eigener Lichtquelle erzeugt werden. Der Vorteil einer solchen Auswertung besteht somit darin, dass sie besonders robust gegenüber variierenden Lichtverhältnissen ist, d. h. größtenteils unabhängig von Lichtverhältnissen in der Umgebung des Kopfes durchgeführt werden kann. The approach described here is based on the finding that depth data from a recording of a driver's head produced by a 3-D sensor can be evaluated by means of a regression-based method in such a way that a pose of the head, in particular an orientation of the head, is fast and accurate robust can be determined. For example, the depth data can be generated by a TOF camera with its own light source. The advantage of such an evaluation is thus that it is particularly robust to varying light conditions, that is largely independent of light conditions in the vicinity of the head can be performed.
Durch den hier vorgestellten Ansatz können Fehler bei der Bestimmung der Kopfpose deutlich reduziert werden. Gleichzeitig kann dadurch die Effizienz einer auf Tiefendaten basierenden Kopfposenabschätzung deutlich gesteigert werden. The approach presented here can significantly reduce errors in the determination of the head pose. At the same time, the efficiency of a depth-based head pose estimation can be significantly increased.
Gemäß einer Ausführungsform kann im Schritt des Auswertens das 3-D- Bildsignal ausgewertet werden, um einen Ort und, zusätzlich oder alternativ, eine Lage des Kopfes als den Lokalisierungswert zu erzeugen. Unter einem Ort kann eine Position des Kopfes im Fahrzeuginnenraum verstanden werden. Unter einer Lage des Kopfes kann eine Orientierung des Kopfes im Fahrzeuginnenraum verstanden werden, d. h., der Kopf kann seinen Ort durch Verschiebung und seine Lage durch Verdrehung ändern. Somit kann der Lokalisierungswert beispielsweise kubische oder planare Koordinaten zur drei- bzw. According to one embodiment, in the step of evaluating, the 3-D image signal may be evaluated to provide a location and, additionally or alternatively, a location of the head as the location value. A location can be understood as meaning a position of the head in the vehicle interior. Under a position of the head can be understood an orientation of the head in the vehicle interior, d. h., the head can change its position by displacement and its position by twisting. Thus, for example, the localization value may be cubic or planar coordinates to the tri-or
zweidimensionalen Ortsangabe oder bestimmte Winkel relativ zu two-dimensional location or certain angles relative to
entsprechenden Orientierungsachsen zur Bestimmung der Lage repräsentieren. Durch diese Ausführungsform kann der Kopf mit hoher Genauigkeit und represent corresponding orientation axes for determining the position. By this embodiment, the head with high accuracy and
Zuverlässigkeit lokalisiert werden. Reliability can be located.
Gemäß einer weiteren Ausführungsform kann im Schritt des Auswertens das 3-D-Bildsignal ausgewertet werden, um einen Rollwinkel des Kopfes als den Lokalisierungswert zu erzeugen. Zusätzlich oder alternativ kann im Schritt des Auswertens ein Nick- oder Gierwinkel des Kopfes als der Lokalisierungswert erzeugt werden. Unter einem Rollwinkel kann ein Winkel verstanden werden, der eine Drehung des Kopfes um eine Längsachse des Kopfes repräsentiert. Unter einem Nickelwinkel kann ein Winkel verstanden werden, der eine Drehung des Kopfes um eine Querachse des Kopfes repräsentiert. Unter einem Gierwinkel kann ein Winkel verstanden werden, der eine Drehung des Kopfes um eine Vertikalachse des Kopfes repräsentiert. Durch diese Ausführungsform kann die Lage des Kopfes mit hoher Genauigkeit und Zuverlässigkeit bestimmt werden. According to another embodiment, in the step of evaluating, the 3-D image signal may be evaluated to generate a roll angle of the head as the localization value. Additionally or alternatively, in the step of evaluating, a pitch or yaw angle of the head may be generated as the location value. A roll angle may be understood to mean an angle representing rotation of the head about a longitudinal axis of the head. A nickel angle may be understood to mean an angle representing rotation of the head about a transverse axis of the head. A yaw angle may be understood to mean an angle representing rotation of the head about a vertical axis of the head. By this embodiment, the position of the head can be determined with high accuracy and reliability.
Des Weiteren kann das Verfahren einen Schritt des Ermitteins umfassen, je nach Ausführungsform eine Blickrichtung, eine Müdigkeit oder eine Furthermore, the method may comprise a step of determining, depending on the embodiment, a line of sight, a tiredness or a
Aufmerksamkeit des Fahrers unter Verwendung des Lokalisierungswertes ermittelt werden kann. Beispielsweise kann die Blickrichtung, die Müdigkeit oder die Aufmerksamkeit als Eingangswert für ein Steuergerät zum Steuern des Fahrzeugs dienen. Durch diese Ausführungsform kann die Blickrichtung, die Müdigkeit oder die Aufmerksamkeit des Fahrers in Abhängigkeit von der Attention of the driver using the localization value can be determined. For example, the viewing direction, fatigue or attention may serve as an input to a controller for controlling the vehicle. By this embodiment, the gaze direction, the tiredness or the attention of the driver depending on the
Kopfpose bestimmt werden. Head pose to be determined.
Zudem kann in einem optionalen Schritt des Bereitstellens ein Steuersignal zum Steuern des Fahrzeugs in Abhängigkeit von der Blickrichtung, der Müdigkeit oder der Aufmerksamkeit bereitgestellt werden. Beispielsweise kann das Steuersignal verwendet werden, um eine Fahrerassistenzfunktion des Fahrzeugs zu steuern.In addition, in an optional provisioning step, a control signal for controlling the vehicle may be provided depending on the viewing direction, tiredness or attention. For example, the control signal may be used to control a driver assistance function of the vehicle.
Dadurch kann das Fahrzeug in Abhängigkeit von der Blickrichtung, der Müdigkeit oder der Aufmerksamkeit gesteuert werden, womit der Fahrkomfort und die Verkehrssicherheit erhöht werden können. Gemäß einer weiteren Ausführungsform kann im Schritt des Auswertens dasThereby, the vehicle can be controlled depending on the viewing direction, fatigue or attention, whereby the ride comfort and the traffic safety can be increased. According to a further embodiment, in the step of evaluating the
3-D-Bildsignal unter Verwendung zumindest eines Regressionsbaumes und, zusätzlich oder alternativ, zumindest eines Regressionswaldes ausgewertet werden. Unter einem Regressionsbaum kann ein geordneter, gerichteter Baum verstanden werden, der zur Darstellung hierarchisch aufeinanderfolgender Regressionsregeln dient. Unter einem Regressionswald kann eine Menge miteinander verknüpfter Regressionsbäume verstanden werden. Durch diese Ausführungsform kann das 3-D-Bildsignal besonders effizient und präzise ausgewertet werden. Es ist zudem vorteilhaft, wenn im Schritt des Einlesens ein 2-D-Bildsignal eingelesen wird, das ein von dem Sensor und, zusätzlich oder alternativ, zumindest einem weiteren Sensor erfasstes zweidimensionales Bild des Kopfes repräsentiert. Entsprechend kann im Schritt des Auswertens ferner das 2-D- Bildsignal ausgewertet werden, um den Lokalisierungswert zu erzeugen. 3-D image signal using at least one regression tree and, additionally or alternatively, at least one regression forest are evaluated. A regression tree can be understood as an ordered, directed tree which serves to display hierarchically successive regression rules. A regression forest can be understood as a set of interrelated regression trees. By this embodiment, the 3-D image signal can be evaluated particularly efficiently and precisely. It is also advantageous if, in the reading-in step, a 2-D image signal is read in which represents a two-dimensional image of the head detected by the sensor and, additionally or alternatively, at least one further sensor. Accordingly, in the step of evaluating, the 2-D image signal may be further evaluated to generate the localization value.
Dadurch kann die Genauigkeit beim Lokalisieren des Kopfes erhöht werden. This can increase the accuracy of locating the head.
Es ist ferner von Vorteil, wenn im Schritt des Einlesens ein früherer It is also advantageous if in the step of reading a previous
Lokalisierungswert zum Lokalisieren des Kopfes eingelesen wird. Der frühere Lokalisierungswert kann einen älteren Wert als der Lokalisierungswert repräsentieren. Hierbei kann im Schritt des Auswertens unter Verwendung des früheren Lokalisierungswertes zumindest ein lokales binäres Merkmal aus dem 3-D-Bildsignal extrahiert werden. Unter Verwendung des lokalen binären Merkmals und zumindest einer globalen linearen Regressionsvorschrift kann hierauf ein, eine Abweichung zwischen dem früheren Lokalisierungswert und dem Lokalisierungswert repräsentierender Abweichungswert ermittelt werden. Schließlich kann der Lokalisierungswert als Funktion des früheren Localization value is read to locate the head. The earlier localization value may represent an older value than the localization value. This can be done in the step of evaluating using the previous localization value, at least one local binary feature will be extracted from the 3-D image signal. Using the local binary feature and at least one global linear regression rule, a deviation value representing a deviation between the previous localization value and the localization value can then be determined. Finally, the localization value may be a function of the previous one
Lokalisierungswertes und des Abweichungswertes erzeugt werden. Unter einem lokalen binären Merkmal kann ein binäres Merkmal verstanden werden, das aus Tiefendaten, die einen lokalen Bereich des Kopfes repräsentieren, extrahiert werden kann, beispielsweise unter Verwendung eines Regressionsbaumes oder -waldes. Unter einer globalen linearen Regressionsvorschrift kann eine Vorschrift zum Ausführen einer linearen Regression verstanden werden, die sich auf einen Gesamtbereich des Kopfes bezieht. Die Regressionsvorschrift kann je nach Ausführungsform Regressionsbäume oder -wälder umfassen. Durch diese Ausführungsform wird eine präzise Lokalisierung des Kopfes in Echtzeit ermöglicht. Localization value and the deviation value are generated. By a local binary feature may be understood a binary feature that can be extracted from depth data representing a local area of the head, for example using a regression tree or forest. A global linear regression law may be understood as a rule for performing a linear regression that relates to an entire region of the head. Depending on the embodiment, the regression rule may include regression trees or forests. This embodiment enables precise localization of the head in real time.
Gemäß einer weiteren Ausführungsform kann im Schritt des Auswertens das 3-D-Bildsignal unter Verwendung von Quaternionen zum Darstellen einer Drehung des Kopfes um zumindest eine Drehachse ausgewertet werden. According to a further embodiment, in the step of evaluating the 3-D image signal can be evaluated using quaternions for representing a rotation of the head about at least one axis of rotation.
Dadurch kann der Rechenaufwand beim Auswerten reduziert werden. As a result, the computational effort during evaluation can be reduced.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einem Steuergerät, implementiert sein. This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in The approach presented here also provides a device which is designed to implement the steps of a variant of a method presented here
entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. to implement, control or implement appropriate facilities. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine For this purpose, the device can have at least one computing unit for processing signals or data, at least one memory unit for storing Signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting data or control signals to the actuator and / or at least one
Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine Communication interface for reading or outputting data embedded in a communication protocol. The arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit is a flash memory, an EPROM or a
magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann. magnetic storage unit can be. The communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind. In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
In einer vorteilhaften Ausgestaltung erfolgt durch die Vorrichtung eine Steuerung des Fahrzeugs. Hierzu kann die Vorrichtung beispielsweise auf Sensorsignale wie Lenkwinkel-, Beschleunigungs- oder Umfeldsensorsignale zugreifen. Die Ansteuerung erfolgt über Aktoren wie Lenk- oder Bremsaktoren oder ein In an advantageous embodiment, the device is used to control the vehicle. For this purpose, the device can access, for example, sensor signals such as steering angle, acceleration or environmental sensor signals. It is controlled by actuators such as steering or brake actuators or a
Motorsteuergerät. Engine control unit.
Der hier vorgestellte Ansatz schafft zudem ein Kopflokalisierungssystem mit folgenden Merkmalen: einer Vorrichtung gemäß einer vorstehenden Ausführungsform; und zumindest einem Sensor zum Erzeugen des 3-D-Bildsignals. Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mitThe approach presented here also creates a head localization system with the following features: a device according to a preceding embodiment; and at least one sensor for generating the 3-D image signal. Of advantage is also a computer program product or computer program with
Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend Program code, which may be stored on a machine-readable medium or storage medium, such as a semiconductor memory, a hard disk memory or an optical memory, and for carrying out, implementing and / or controlling the steps of the method according to one of the above
beschriebenen Ausführungsformen verwendet wird, insbesondere wenn dasdescribed embodiments is used, in particular when the
Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird. Program product or program is executed on a computer or a device.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt: Embodiments of the invention are illustrated in the drawings and explained in more detail in the following description. It shows:
Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einem Fig. 1 is a schematic representation of a vehicle with a
Kopflokalisierungssystem gemäß einem Ausführungsbeispiel; Fig. 2 eine schematische Darstellung einer Vorrichtung gemäß einem Head localization system according to an embodiment; Fig. 2 is a schematic representation of a device according to a
Ausführungsbeispiel;  Embodiment;
Fig. 3 ein Ablaufdiagramm eines Verfahrens gemäß einem 3 is a flowchart of a method according to a
Ausführungsbeispiel; Embodiment;
Fig. 4 eine schematische Darstellung eines Ablaufs einer 4 is a schematic representation of a sequence of a
Kopfposenabschätzung unter Verwendung einer Vorrichtung gemäß einem Ausführungsbeispiel; Fig. 5 eine schematische Darstellung eines Ablaufs einer Head pose estimation using a device according to an embodiment; Fig. 5 is a schematic representation of a sequence of a
Kopfposenabschätzung unter Verwendung einer Vorrichtung gemäß einem Ausführungsbeispiel; und  Head pose estimation using a device according to an embodiment; and
Fig. 6 ein Ablaufdiagramm eines Verfahrens gemäß einem 6 is a flowchart of a method according to a
Ausführungsbeispiel. In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren Embodiment. In the following description of favorable embodiments of the present invention are for the in the various figures
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche represented and similar elements acting the same or similar
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird. Reference numeral used, wherein a repeated description of these elements is omitted.
Fig. 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einem Kopflokalisierungssystem 102 gemäß einem Ausführungsbeispiel. Das 1 shows a schematic representation of a vehicle 100 with a head localization system 102 according to one exemplary embodiment. The
Kopflokalisierungssystem 102 umfasst einen Sensor 104, etwa eine TOF- Kamera, und eine Vorrichtung 106, die mit dem Sensor 104 verbunden ist. Der Sensor 104 ist ausgebildet, um ein dreidimensionales Bild eines Kopfes 108 eines Fahrers 110 des Fahrzeugs 100 zu erfassen und ein das dreidimensionale Bild repräsentierendes 3-D-Bildsignal 112 an die Vorrichtung 106 zu senden. Die Vorrichtung 106 ist ausgebildet, um das 3-D-Bildsignal 112 unter Verwendung eines Regressionsverfahrens auszuwerten, um den Kopf 108 im Head localization system 102 includes a sensor 104, such as a TOF camera, and a device 106 connected to the sensor 104. The sensor 104 is configured to capture a three-dimensional image of a head 108 of a driver 110 of the vehicle 100 and to send a 3-D image signal 112 representing the three-dimensional image to the device 106. The device 106 is configured to evaluate the 3-D image signal 112 using a regression method to image the head 108 in FIG
Fahrzeuginnenraum zu lokalisieren. Hierbei erzeugt die Vorrichtung 106 einen Lokalisierungswert 114, der beispielsweise eine Kopfposition oder -Orientierung repräsentiert. Vehicle interior to locate. Here, the device 106 generates a location value 114 representing, for example, a head position or orientation.
Die Vorrichtung 106 ermöglicht es, die Kopforientierung auch im Fall starker Verdeckungen möglichst robust und in Echtzeit zu ermitteln. The device 106 makes it possible to determine the head orientation as robustly as possible and in real time, even in the case of strong occlusions.
Derzeitige Systeme zur Müdigkeitsschätzung basieren unter anderem auf nicht visuellen Parametern. Die Systeme warnen aufgrund eines basierend auf einem Lenkwinkel oder unter Verwendung von Spurhaltesensoren ermittelten Current fatigue estimation systems are based, inter alia, on non-visual parameters. The systems warn on the basis of a steering angle based on or using lane keeping sensors
Fahrverhaltens. Diese Parameter können in der Signalkette deutlich weiter entfernt sein als direkt messbare physiologische Veränderungen. Des Weiteren kann das Lenkverhalten nicht immer eindeutig mit der Müdigkeit verknüpft werden. Beispielsweise kann beim Fahren mit Anhänger ein ähnliches Driving behavior. These parameters may be significantly further in the signal chain than directly measurable physiological changes. Furthermore, the steering behavior can not always be clearly linked to fatigue. For example, when driving with trailer a similar
Lenkwinkelsignal erzeugt werden wie beim Fahren mit erhöhter Müdigkeit. Steering angle signal can be generated as when driving with increased fatigue.
Mithilfe der Vorrichtung 106 kann die Kopfposition und -Orientierung in einem regressionsbasierten Verfahren schrittweise ermittelt werden. Der Vorteil besteht darin, dass hierbei Regressionsbäume auf Tiefendaten angewendet werden können und durch eine globale lineare Transformation direkt eine Abweichung von der Kopfposition und -Orientierung ausgegeben werden kann. Somit wird eine direkte Bestimmung der Kopfposition und -Orientierung ermöglicht. Fig. 2 zeigt eine schematische Darstellung einer Vorrichtung 106 gemäß einemBy means of the device 106, the head position and orientation can be determined stepwise in a regression-based method. The advantage is that this regression trees are applied to depth data and a deviation from the head position and orientation can be output directly by a global linear transformation. Thus, a direct determination of the head position and orientation is made possible. FIG. 2 shows a schematic representation of a device 106 according to a
Ausführungsbeispiel. Bei der Vorrichtung 106 handelt es sich beispielsweise um eine vorangehend anhand von Fig. 1 beschriebene Vorrichtung. Die Vorrichtung 106 umfasst eine Einleseeinheit 210 zum Einlesen des 3-D-Bildsignals 112. Die Einleseeinheit 210 ist mit einer Auswerteeinheit 220 verbunden, die ausgebildet ist, um das 3-D-Bildsignal 112 von der Einleseeinheit 210 zu empfangen und unter Verwendung des Regressionsverfahrens auszuwerten. Als Ergebnis der Auswertung gibt die Auswerteeinheit 220 den Lokalisierungswert 114 aus. Embodiment. The device 106 is, for example, a device described above with reference to FIG. The device 106 comprises a read-in unit 210 for reading in the 3-D image signal 112. The read-in unit 210 is connected to an evaluation unit 220, which is designed to receive the 3-D image signal 112 from the read-in unit 210 and using the regression method evaluate. As a result of the evaluation, the evaluation unit 220 outputs the localization value 114.
Gemäß diesem Ausführungsbeispiel gibt die Auswerteeinheit 220 den According to this embodiment, the evaluation unit 220 outputs the
Lokalisierungswert 114 an eine optionale Ermittlungseinheit 230 aus, die ausgebildet ist, um unter Verwendung des Lokalisierungswertes 114 eine Blickrichtung, eine Müdigkeit oder eine Aufmerksamkeit des Fahrers zu ermitteln und ein die Blickrichtung, Müdigkeit oder Aufmerksamkeit repräsentierendes Ausgangssignal 235 zu erzeugen. Beispielsweise erzeugt die Auswerteeinheit 220 einen Wert als den Lokalisierungswert 114, der einen Ort oder eine Lage des Kopfes im Fahrzeuginnenraum repräsentiert, wobei die Lage beispielsweise durch einen einen Roll-, Nick- oder Gierwinkel des Kopfes repräsentierenden Winkelwert definiert ist. Entsprechend ermittelt die Ermittlungseinheit 230 die Blickrichtung, Müdigkeit oder Aufmerksamkeit in Abhängigkeit vom Ort oder von der Lage des Kopfes. Localization value 114 to an optional determination unit 230 configured to determine a driver's line of sight, fatigue, or attention using the localization value 114, and to generate an output signal 235 representing sight, fatigue, or attention. For example, the evaluation unit 220 generates a value as the localization value 114, which represents a location or a position of the head in the vehicle interior, wherein the position is defined, for example, by an angle value representing a roll, pitch or yaw angle of the head. Accordingly, the determination unit 230 determines the viewing direction, fatigue, or attention depending on the location or location of the head.
Optional umfasst die Vorrichtung 106 eine Bereitstellungseinheit 240, die ausgebildet ist, um das Ausgangssignal 235 von der Ermittlungseinheit 230 zu empfangen und unter Verwendung des Ausgangssignals 235 ein Steuersignal 245 zum Steuern des Fahrzeugs bereitzustellen, beispielsweise an eine Optionally, the device 106 includes a provisioning unit 240 configured to receive the output signal 235 from the determination unit 230 and to provide, using the output signal 235, a control signal 245 for controlling the vehicle, for example to a vehicle
Schnittstelle zu einem entsprechenden Steuergerät des Fahrzeugs. Das  Interface to a corresponding control unit of the vehicle. The
Steuersignal 245 dient somit zum Steuern des Fahrzeugs in Abhängigkeit von der Blickrichtung, Müdigkeit oder Aufmerksamkeit des Fahrers. Gemäß einem weiteren Ausführungsbeispiel ist die Einleseeinheit 210 ausgebildet, um zusätzlich zum 3-D-Bildsignal 112 ein optionales 2-D-Bildsignal 250 einzulesen und an die Auswerteeinheit 220 weiterzuleiten. Je nach Control signal 245 thus serves to control the vehicle depending on the driver's gaze, fatigue or attention. According to a further embodiment, the read-in unit 210 is designed to read in an optional 2-D image signal 250 in addition to the 3-D image signal 112 and to forward it to the evaluation unit 220. Depending on
Ausführungsbeispiel kann das 2-D-Bildsignal 250 entweder von dem das 3-D- Bildsignal 112 erzeugenden Sensor oder von einem anderen Sensor des Embodiment, the 2-D image signal 250 from either the sensor producing the 3-D image signal 112 or from another sensor of the
Fahrzeugs erzeugt worden sein. In entsprechender Weise kann die  Vehicle generated. In a similar way, the
Auswerteeinheit 220 ausgebildet sein, um ferner das 2-D-Bildsignal 250 zum Erzeugen des Lokalisierungswertes 114 zu verwenden. Beispielsweise kann hierbei das 3-D-Bildsignal 112 unter Verwendung des 2-D-Bildsignals 250 ausgewertet werden. Evaluation unit 220 may be configured to further use the 2-D image signal 250 to generate the localization value 114. For example, in this case, the 3-D image signal 112 can be evaluated using the 2-D image signal 250.
Fig. 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 gemäß einem FIG. 3 shows a flowchart of a method 300 according to FIG
Ausführungsbeispiel. Das Verfahren 300 zur effizienten Embodiment. The method 300 for efficient
Kopforientierungsschätzung von Tiefendaten kann beispielsweise im For example, head orientation estimation of depth data may be in the
Zusammenhang mit einer vorangehend anhand der Figuren 1 und 2 Connection with a preceding with reference to Figures 1 and 2
beschriebenen Vorrichtung ausgeführt oder angesteuert werden. Hierbei wird der Fahrer von einem Tiefensensor kontinuierlich erfasst. Der Sensor nimmt sowohl 2-D-Daten als auch Tiefendaten auf. Aus den erhaltenen Daten werden be executed or controlled device described. Here, the driver is continuously detected by a depth sensor. The sensor captures both 2-D data and depth data. From the data received will be
Kopfposition und -Orientierung bestimmt. Anschließend werden daraus die Blickrichtung, ein Schläfrigkeitslevel, die Aufmerksamkeit oder bestimmteHead position and orientation determined. It then turns the line of sight, a level of drowsiness, the attention or certain
Sicherheitseinstellungen ermittelt. Security settings determined.
In Fig. 3 ist der Fahrer durch einen Block 302, ein Input durch einen Block 304, der Sensor durch einen Block 306, die Kopfposition und -Orientierung durch einen Block 308, eine Recheneinheit zum Verarbeiten der Sensordaten durch einen Block 310, ein Output durch einen Block 312, die Blickrichtung durch einen Block 314, das Schläfrigkeitslevel durch einen Block 316, die Aufmerksamkeit durch einen Block 318 und eine Sicherheitseinstellung, etwa eine Einstellung für einen Airbag, durch einen Block 320 repräsentiert. In Fig. 3, the driver is through a block 302, an input through a block 304, the sensor through a block 306, the head position and orientation by a block 308, a computing unit for processing the sensor data through a block 310, an output a block 312, the viewing direction through a block 314, the level of drowsiness through a block 316, the attention through a block 318 and a safety setting, such as an adjustment for an airbag, represented by a block 320.
Fig. 4 zeigt eine schematische Darstellung eines Ablaufs 400 einer 4 shows a schematic representation of a sequence 400 of a
Kopfposenabschätzung unter Verwendung einer Vorrichtung gemäß einem Ausführungsbeispiel. Die Kopfposenabschätzung kann beispielsweise unter Verwendung einer Vorrichtung, wie sie vorangehend anhand der Figuren 1 bis 3 beschrieben ist, durchgeführt werden. Gezeigt ist ein Schritt-für-Schritt-Ansatz für eine Kopfposenabschätzung aus Tiefenbildern. Hierbei wird in jedem Schritt t eine Aktualisierung ΔΘ1 einer Kopforientierung und -position berechnet, nachfolgend auch Abweichungswert genannt. Die Kopforientierung und -position Θ1 eines Schrittes t ist mit einem Pfeil gekennzeichnet. Kopfposenabschätzung using a device according to an embodiment. The head pose estimation can be performed, for example, using a device as described above with reference to FIGS. 1 to 3. Shown is a step-by-step approach to a head pose estimation from depth images. In this case, an update ΔΘ 1 of a head orientation and position is calculated in each step t, hereinafter also referred to as the deviation value. The head orientation and position Θ 1 of a step t is indicated by an arrow.
Die Kopfposenabschätzung erfolgt auf der Basis einer Schritt-für-Schritt- Regressionstechnik. Dadurch kann die Kopforientierung und -position mit sehr hoher Effizienz geschätzt werden. Hierbei wird in jedem Schritt eine The head pose estimation is based on a step-by-step regression technique. This allows the head orientation and position to be estimated with very high efficiency. Here, in each step, a
Aktualisierung der Kopforientierung und -position berechnet. Gemäß einem Ausführungsbeispiel wird hierzu eine Extraktion lokaler binärer Merkmale basierend auf Tiefendaten durchgeführt. Eine derartige Merkmalsextraktion wird unter Verwendung lokaler Bereiche durchgeführt, die relativ zur Kopforientierung und -position projiziert wurden. Durch Nutzung der Quaternionendarstellung kann die Kopforientierung direkt über eine globale lineare Regression ermittelt werden. Update of head orientation and position calculated. According to an exemplary embodiment, an extraction of local binary features based on depth data is performed for this purpose. Such feature extraction is performed using local regions that have been projected relative to the head orientation and position. By using the quaternion representation, the head orientation can be determined directly via a global linear regression.
Fig. 5 zeigt eine schematische Darstellung eines Ablaufs 500 einer 5 shows a schematic representation of a sequence 500 of a
Kopfposenabschätzung unter Verwendung einer Vorrichtung gemäß einem Ausführungsbeispiel. Bei dem in Fig. 5 gezeigten Ablauf 500 handelt es sich um eine Übersicht über Teilschritte eines vorangehend anhand von Fig. 4 Kopfposenabschätzung using a device according to an embodiment. The sequence 500 shown in FIG. 5 is an overview of sub-steps of a preceding with reference to FIG. 4
beschriebenen Schrittes t. Als Eingangsdaten dient ein früherer described step t. The input data is a former
Lokalisierungswert, der eine frühere Kopfpose Θ1"1 repräsentiert. Zudem ist eine Ground-Truth-Kopforientierung Θ (engl, ground-truth head pose) gezeigt. Ein Abweichungswert ΔΘ1 wird in einem Schritt 510 ermittelt, der sich wiederum in zwei Teilschritte 520, 530 unterteilt. Im ersten Teilschritt 520 werden lokale binäre Merkmale Φ1 berechnet. Die lokalen binären Merkmale sind in Fig. 5 schematisch durch eingekreiste Punkte gekennzeichnet. Im zweiten Teilschritt 530 wird ein globales lineares Mapping W1 durchgeführt. Die Aktualisierung der Kopfpose Θ1 wird in einem Schritt 540 unter Verwendung des Localization value representing an earlier head pose Θ 1 "1. In addition, a ground-truth head orientation gezeigt is shown A deviation value ΔΘ 1 is determined in a step 510, which in turn is divided into two sub-steps 520 530. Local binary features Φ 1 are calculated in the first sub-step 520. The local binary features are schematically indicated by circled points in Fig. 5. In the second sub-step 530, a global linear mapping W 1 is carried out Updating the head pose Θ 1 is used in step 540 using the
Abweichungswertes ΔΘ1 ermittelt. Deviation value ΔΘ 1 determined.
Nachfolgend wird der in Fig. 5 gezeigte Ablauf 500 nochmals im Detail erläutert. Hereinafter, the sequence 500 shown in FIG. 5 will be explained again in detail.
Ziel des hier vorgestellten Ansatzes ist es gemäß einem Ausführungsbeispiel, einen Ort und eine Drehung des Kopfes auf der Basis eines einzelnen The aim of the approach presented here is, according to one embodiment, a location and a rotation of the head on the basis of a single
Tiefenscans zu ermitteln. Hierzu wird ein Schritt-für-Schritt-Ansatz gewählt, bei dem jeder Schritt eine Aktualisierung hin zur korrekten Kopforientierung und -position liefert. Wie in Fig. 5 gezeigt, wird in jedem Schritt t nach der Ermittlung eines lokalen binären Merkmals Φ1 eine globale lineare Regression W angewendet. Zuerst wird ein Training beschrieben, durch das Regressionswälder zur Ermittlung der lokalen linearen Merkmale Φ1 gelernt werden. Zusätzlich wird die globale lineare Projektion W trainiert. Hierauf wird die Testphase To determine depth scans. For this a step-by-step approach is chosen each step provides an update to the correct head orientation and position. As shown in FIG. 5, in each step t, after the determination of a local binary feature Φ 1, a global linear regression W is applied. First, a training will be described by which regression forests are learned to determine the local linear features Φ 1 . In addition, the global linear projection W is trained. This is the test phase
beschrieben, in dem der hier vorgestellte Ansatz auf einen unbekannten described in which the approach presented here to an unknown
Tiefenscan angewendet wird. Depth scan is applied.
Als Erstes wird ein überwachter Trainingsschritt mit gelabelten Trainingsdaten durchgeführt. Jedes Trainingsmuster i besteht aus einer Tiefenkarte D, und gelabelten Ground-Truth-Daten Θ; = { ,-, θ,- } der Kopfposition Ii = {x,y,z} sowie der in Quaternionen dargestellten Kopforientierung θί = , 2 , 3 , 4 }. DerFirst, a supervised training step with labeled training data is performed. Each training pattern i consists of a depth map D, and labeled ground truth data Θ ; = {, -, θ, -} of the head position I i = {x, y, z} and the head orientation shown in quaternions θ ί =, 2 , 3 , 4 }. Of the
Vorteil der Nutzung von Quaternionen besteht darin, dass durch diese eine Drehung eines vierdimensionalen Vektors in kompakter Weise dargestellt werden kann. Im Vergleich zu Eulerwinkeln können Drehungen auf effizientere Weise berechnet werden. Dadurch kann die Effizienz bei der schrittweisen Ermittlung der Kopforientierung gesteigert werden. The advantage of using quaternions is that they allow a rotation of a four-dimensional vector to be represented in a compact manner. In comparison to Euler angles, rotations can be calculated in a more efficient way. This can increase the efficiency in the stepwise determination of the head orientation.
Der Gesichtsbereich wird unter Verwendung eines handelsüblichen The facial area is made using a commercial
Gesichtsdetektors in der Vorverarbeitungsphase erfasst. Während des Face detector detected in the preprocessing phase. During the
Trainingsprozesses wird für jeden Schritt t ein Regressionswald zur Ermittlung der lokalen binären Merkmale Φ1 und der globalen linearen Projektion W gelernt. Training process, a regression forest for each step t for the determination of the local binary features Φ 1 and the global linear projection W is learned.
Die lokalen binären Merkmale Φ1 werden aus Regressionswäldern berechnet. Um die Regressionswälder zu lernen, werden die Tiefendaten D, anstatt zweidimensionaler Farbinformationen verwendet. Das Training erfordert zweidimensionale Ground-Truth-Positionen S^ und zweidimensionale Positionen des vorherigen Schrittes S "1. Für jeden Frame i werden die Ground-Truth- Positionen 5; e Rkxl generiert, indem K lokale Bereiche eines dreidimensionalenThe local binary features Φ 1 are calculated from regression forests. To learn the regression forests, the depth data D is used instead of two-dimensional color information. The training requires two-dimensional ground-truth positions S ^ and two-dimensional positions of the previous step S "1. For each frame i, the ground truth positions 5 ; e R kxl are generated by dividing K local areas of a three-dimensional
Mittelwertgesichts relativ zur Ground-Truth-Kopforientierung und -position projiziert werden. Die Projektion dieser lokalen Bereiche mithilfe der ermittelten Kopforientierung aus dem früheren Schritt t-1 ergibt die zweidimensionalen Positionen des vorherigen Schrittes S'~l e Rkx2. Für jeden lokalen Bereich k wird unabhängig voneinander ein binärer Wald trainiert. Die gelernten Wälder werden auf die k lokalen Bereiche des früheren Schrittes S -1 angewendet, um den binären Merkmalsvektor Φ' zu erhalten. Der binäre Merkmalsvektor ist 1, wenn das Muster einen Astknoten erreicht. Mean face relative to the ground Truth head orientation and position are projected. The projection of these local areas by using the determined head orientation from the previous step t-1 results in the two-dimensional positions of the previous step S '~ l e R kx2. For each local area k, a binary forest is trained independently of each other. The learned forests are applied to the k local areas of the earlier step S -1 to obtain the binary feature vector Φ '. The binary feature vector is 1 when the pattern reaches a leaf node.
Andernfalls ist der binäre Merkmalsvektor 0. Otherwise, the binary feature vector is 0.
Es wird ferner eine globale lineare Regression W gelernt, durch die eine It also learns a global linear regression W by which a
Abweichung ΔΘ' von einer aktuellen Kopfposition und -Orientierung ermittelt werden kann. In der Trainingsphase wird ein geeignetes Mapping W unter Verwendung des zuvor ermittelten Binärvektors Φ' und der Residuen ΔΘ- 5 gegenüber der Ground-Truth-Kopfpose gelernt. Die optimale globale lineare Regression W erhält man durch Minimieren der folgenden Zielfunktion:
Figure imgf000014_0001
Deviation ΔΘ 'can be determined from a current head position and orientation. In the training phase, a suitable mapping W is learned using the previously determined binary vector Φ 'and the residual ΔΘ- 5 with respect to the ground-truth head pose. The optimal global linear regression W is obtained by minimizing the following objective function:
Figure imgf000014_0001
Die Ground-Truth-Residuen werden wie folgt ermittelt:
Figure imgf000014_0002
wobei R; die aus den Quaternionen θί berechnete Drehungsmatrix repräsentiert und R "1 aus 0/"1 berechnet wird.
The ground truth residuals are determined as follows:
Figure imgf000014_0002
where R ; is the θ from the quaternions ί calculated rotation matrix represents and R '1 of 0 / "1 calculated.
Nach jedem Schritt t wird die Kopforientierung und -position eines jeden Frame i folgendermaßen aktualisiert mit
Figure imgf000014_0003
mit
After each step t, the head orientation and position of each frame i is updated as follows
Figure imgf000014_0003
With
ΔΘ;ΔΘ;
Figure imgf000014_0004
AR^ ist die aus den Quaternionen Αθ' berechnete Drehungsmatrix. R\ ist die aus den Quaternionen 0 1 berechnete Drehungsmatrix.
Figure imgf000014_0004
AR ^ is the rotation matrix calculated from the quaternions Αθ '. R \ is the rotation matrix calculated from the quaternions 0 1 .
In der Testphase sollen die Kopfposition und die Kopforientierung Θ;. = { , ,θ, } aus einem unbekannten Entfernungsbild D, ermittelt werden. In jedem Schritt wird ein Residuum der Kopfposition und -Orientierung ΔΘ' gegenüber der aktuellen Kopforientierung ermittelt. Für jeden Schritt t wird ein lokaler Teilschritt 520 und ein globaler Teilschritt 530 durchgeführt. Im lokalen Teilschritt 520 werden die lokalen binären Merkmale Φ' mithilfe des trainierten In the test phase the head position and the head orientation Θ ; , = {,, θ,} from an unknown distance image D, are determined. In each step a residual of the head position and orientation ΔΘ 'relative to the current head orientation is determined. For each step t, a local substep 520 and a global substep 530 are performed. In local substep 520, the local binary features Φ 'are trained using the trained
Regressionswaldes ermittelt. Nachfolgend auf diesen Teilschritt werden die binären Merkmale durch die gelernte globale lineare Regression W1 mit dem die Abweichung der Kopfposition und -Orientierung repräsentierenden Regression forest determined. Subsequent to this substep, the binary features are represented by the learned global linear regression W 1 with the deviation of the head position and orientation
Abweichungswert Θ' = {Δ/' , Δ0 } verknüpft, wie in Gleichung (4) beschrieben.Deviation value Θ '= {Δ /', Δ0} linked as described in equation (4).
Nach jedem Schritt wird die Kopfpose mit = /(Θ'~ ΑΘ' ) aktualisiert , wie in Gleichung (3) beschrieben. After each step, the head pose is updated with = / (Θ ' ~ ΑΘ') as described in Equation (3).
Fig. 6 zeigt ein Ablaufdiagramm eines Verfahrens 600 gemäß einem FIG. 6 shows a flowchart of a method 600 according to FIG
Ausführungsbeispiel. Das Verfahren kann beispielsweise im Zusammenhang mit einer vorangehend anhand der Figuren 1 bis 4 beschriebenen Vorrichtung durchgeführt oder angesteuert werden. Die anhand der Figuren 4 und 5 beschriebenen Schritte können Teilschritte des Verfahrens 600 sein. Das Verfahren 600 umfasst einen Schritt 610, in dem das 3-D-Bildsignal eingelesen wird. In einem weiteren Schritt 620 wird das 3-D-Bildsignal unter Verwendung eines Regressionsverfahrens ausgewertet, um den Lokalisierungswert zu erzeugen. Embodiment. The method can be performed or controlled, for example, in connection with a device described above with reference to FIGS. 1 to 4. The steps described with reference to FIGS. 4 and 5 can be sub-steps of the method 600. The method 600 includes a step 610 in which the 3-D image signal is read. In a further step 620, the 3-D image signal is evaluated using a regression method to generate the localization value.
Gemäß einem Ausführungsbeispiel wird das 3-D-Bildsignal im Schritt 620 unter Verwendung zumindest eines Regressionsbaumes oder eines According to an embodiment, the 3-D image signal is generated in step 620 using at least one regression tree or one
Regressionswaldes ausgewertet, etwa auf eine Weise, wie sie vorangehend anhand von Fig. 5 beschrieben ist. Regression forest evaluated, such as in a manner as described above with reference to FIG. 5.
Die Schritte 610, 620 können fortlaufend ausgeführt werden. Umfasst ein Ausführungsbeispiel eine„und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist. Steps 610, 620 may be performed continuously. If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Claims

Ansprüche claims
1. Verfahren (600) zum Lokalisieren eines Kopfes (108) eines Fahrers (110) in einem Fahrzeug (100), wobei das Verfahren (600) folgende Schritte umfasst: A method (600) for locating a head (108) of a driver (110) in a vehicle (100), the method (600) comprising the steps of:
Einlesen (610) eines 3-D-Bildsignals (112), das ein von zumindest einem Sensor (104) des Fahrzeugs (100) erfasstes dreidimensionales Bild des Kopfes (108) repräsentiert; und Reading (610) a 3-D image signal (112) representing a three-dimensional image of the head (108) detected by at least one sensor (104) of the vehicle (100); and
Auswerten (620) des 3-D-Bildsignals (112) unter Verwendung eines Regressionsverfahrens, um einen Lokalisierungswert (114) zum Evaluating (620) the 3-D image signal (112) using a regression method to obtain a localization value (114) for
Lokalisieren des Kopfes (108) zu erzeugen.  Locate the head (108) to produce.
2. Verfahren (600) gemäß Anspruch 1, bei dem im Schritt des Auswertens (620) das 3-D-Bildsignal (112) ausgewertet wird, um einen Ort und/oder eine Lage des Kopfes (108) als den Lokalisierungswert (114) zu erzeugen. The method (600) according to claim 1, wherein in the step of evaluating (620) the 3-D image signal (112) is evaluated to determine a location and / or a location of the head (108) as the localization value (114). to create.
3. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Auswertens (620) das 3-D-Bildsignal (112) ausgewertet wird, um einen Roll- und/oder Nick- und/oder Gierwinkel des Kopfes (108) als den Lokalisierungswert (114) zu erzeugen. 3. Method (600) according to one of the preceding claims, wherein in the step of evaluating (620) the 3-D image signal (112) is evaluated to determine a roll and / or pitch and / or yaw angle of the head (108 ) as the localization value (114).
4. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Ermitteins einer Blickrichtung und/oder einer Müdigkeit und/oder einer Aufmerksamkeit des Fahrers (110) unter Verwendung des Lokalisierungswertes (114). A method (600) according to any preceding claim including a step of determining a driver's (110) gaze and / or fatigue and / or attention using the localization value (114).
5. Verfahren (600) gemäß Anspruch 4, mit einem Schritt des Bereitstellens eines Steuersignals (245) zum Steuern des Fahrzeugs (100) in Abhängigkeit von der Blickrichtung und/oder der Müdigkeit und/oder der Aufmerksamkeit. The method (600) of claim 4, further comprising a step of providing a control signal (245) for controlling the vehicle (100) in FIG Dependence on the direction of vision and / or fatigue and / or attention.
Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Auswertens (620) das 3-D-Bildsignal (112) unter Verwendung zumindest eines Regressionsbaumes und/oder zumindest eines Regressionswaldes ausgewertet wird. Method (600) according to one of the preceding claims, wherein in the step of evaluating (620) the 3-D image signal (112) is evaluated using at least one regression tree and / or at least one regression forest.
Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (610) ein 2-D-Bildsignal (250) eingelesen wird, das ein von dem Sensor (104) und/oder zumindest einem weiteren Sensor erfasstes zweidimensionales Bild des Kopfes (108) repräsentiert, wobei im Schritt des Auswertens (620) ferner das 2-D-Bildsignal (250) ausgewertet wird, um den Lokalisierungswert (114) zu erzeugen. Method (600) according to one of the preceding claims, wherein in the read-in step (610) a 2-D image signal (250) is read in which comprises a two-dimensional image of the sensor detected by the sensor (104) and / or at least one further sensor In the step of evaluating (620), the 2-D image signal (250) is further evaluated to generate the localization value (114).
Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (610) ein früherer Lokalisierungswert Θ1"1 zum Lokalisieren des Kopfes (108) eingelesen wird, wobei der frühere Lokalisierungswert Θ1"1 einen älteren Wert als der Lokalisierungswert (114) repräsentiert, wobei im Schritt des Auswertens (620) unter Verwendung des früheren Lokalisierungswertes Θ1"1 zumindest ein lokales binäres Merkmal Φ1 aus dem 3-D-Bildsignal (112) extrahiert wird, unter Verwendung des lokalen binären Merkmals Φ1 und zumindest einer globalen linearen Regressionsvorschrift W1 ein eine Abweichung zwischen dem früheren Lokalisierungswert Θ1"1 und dem A method (600) according to any of the preceding claims, wherein in the step of reading (610) a previous location value Θ 1 "is read to locate the head (108) 1, wherein the earlier localization value Θ 1" 1 an older value than the location value (114), wherein in the step of evaluating (620) using the earlier localization value Θ 1 "1, at least one local binary feature Φ 1 is extracted from the 3-D image signal (112) using the local binary feature Φ 1 and at least one global linear regression law W 1 , a deviation between the earlier localization value Θ 1 "1 and the
Lokalisierungswert (114) repräsentierender Abweichungswert ΔΘ1 ermittelt wird und der Lokalisierungswert (114) als Funktion des früheren Lokalisierungswertes Θ1"1 und des Abweichungswertes ΔΘ1 erzeugt wird. Localization value (114) representing deviation value ΔΘ 1 is determined and the localization value (114) as a function of the earlier localization value Θ 1 "1 and the deviation value ΔΘ 1 is generated.
Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Auswertens (620) das 3-D-Bildsignal (112) unter Verwendung von Quaternionen zum Darstellen einer Drehung des Kopfes (108) um zumindest eine Drehachse ausgewertet wird. Method (600) according to one of the preceding claims, wherein in the step of evaluating (620) the 3-D image signal (112) is evaluated using quaternions for representing a rotation of the head (108) about at least one axis of rotation.
10. Vorrichtung (106) mit Einheiten (210, 220, 230, 240), die ausgebildet sind, um das Verfahren (600) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern. 10. Device (106) having units (210, 220, 230, 240) which are designed to execute and / or control the method (600) according to one of the preceding claims.
11. Kopflokalisierungssystem (102) mit folgenden Merkmalen: einer Vorrichtung (106) gemäß Anspruch 10; und zumindest einem Sensor (104) zum Erzeugen des 3-D-Bildsignals (112). 11. A head locating system (102) comprising: a device (106) according to claim 10; and at least one sensor (104) for generating the 3-D image signal (112).
12. Computerprogramm, das ausgebildet ist, um das Verfahren (600) 12. Computer program adapted to carry out the method (600)
gemäß einem der Ansprüche 1 bis 9 auszuführen und/oder anzusteuern.  according to any one of claims 1 to 9 execute and / or to control.
13. Maschinenlesbares Speichermedium, auf dem das Computerprog 13. Machine-readable storage medium on which the computer program
nach Anspruch 12 gespeichert ist.  is stored according to claim 12.
PCT/EP2016/080883 2016-01-29 2016-12-14 Method and device for locating a head of a driver in a vehicle and head localization system WO2017129306A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016201329.7A DE102016201329A1 (en) 2016-01-29 2016-01-29 Method and device for locating a head of a driver in a vehicle and head localization system
DE102016201329.7 2016-01-29

Publications (1)

Publication Number Publication Date
WO2017129306A1 true WO2017129306A1 (en) 2017-08-03

Family

ID=57629579

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/080883 WO2017129306A1 (en) 2016-01-29 2016-12-14 Method and device for locating a head of a driver in a vehicle and head localization system

Country Status (2)

Country Link
DE (1) DE102016201329A1 (en)
WO (1) WO2017129306A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109717853A (en) * 2019-03-14 2019-05-07 扬州大学 Vehicle carried driving person's fatigue detecting system based on raspberry pie

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1905656A1 (en) * 2006-09-28 2008-04-02 Takata Corporation Occupant detection system, warning system, braking system, and vehicle
CN103120588A (en) * 2011-11-17 2013-05-29 现代摩比斯株式会社 Driver gesture monitoring device and method via infrared camera and 3d modeling
DE102013205287A1 (en) * 2012-04-02 2013-10-02 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) A system and method for automatically adjusting vehicle mirrors based on driver head position
CN104688251A (en) * 2015-03-02 2015-06-10 西安邦威电子科技有限公司 Method for detecting fatigue driving and driving in abnormal posture under multiple postures

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1905656A1 (en) * 2006-09-28 2008-04-02 Takata Corporation Occupant detection system, warning system, braking system, and vehicle
CN103120588A (en) * 2011-11-17 2013-05-29 现代摩比斯株式会社 Driver gesture monitoring device and method via infrared camera and 3d modeling
DE102013205287A1 (en) * 2012-04-02 2013-10-02 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) A system and method for automatically adjusting vehicle mirrors based on driver head position
CN104688251A (en) * 2015-03-02 2015-06-10 西安邦威电子科技有限公司 Method for detecting fatigue driving and driving in abnormal posture under multiple postures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109717853A (en) * 2019-03-14 2019-05-07 扬州大学 Vehicle carried driving person's fatigue detecting system based on raspberry pie

Also Published As

Publication number Publication date
DE102016201329A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
DE102017107396B4 (en) Test procedure and test device for driver assistance systems
DE102016114535B4 (en) Route determination for automated vehicles
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
DE102017115393A1 (en) VIRTUAL SENSOR DATA GENERATION SYSTEM AND METHOD FOR SUPPORTING THE DEVELOPMENT OF VISIBLE RAIN DETECTION ALGORITHMS
DE112017006567T5 (en) AUTONOMOUS VEHICLE WITH DRIVER TRAINING
DE112011105445B4 (en) Red-eye detection device
EP3292510A1 (en) Method and apparatus for detecting and assessing road reflections
DE102019128840A1 (en) Driver assistance device
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
DE102017202194A1 (en) Method and device for determining a visual distraction of a driver of a vehicle
DE102017108248A1 (en) STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM
DE102018206777A1 (en) Depth evaluation for locating a vehicle occupant in a vehicle interior
DE112020001543T5 (en) Vehicle position detection device and parameter set generation device for detecting the vehicle position
DE102016206771A1 (en) Method and device for controlling at least one driver interaction system
DE102022114048A1 (en) IMAGE RECTIFICATION
DE102022114047A1 (en) IMAGE ANOTATION FOR DEEP NEURAL NETWORKS
DE102017221765A1 (en) Train and operate a machine learning system
DE102017216321A1 (en) Method and device for determining a driving function for highly automated driving for a vehicle
EP3815044A1 (en) Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus
WO2017129306A1 (en) Method and device for locating a head of a driver in a vehicle and head localization system
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102021120966A1 (en) SENSOR FUSION
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
DE112021001872T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
DE102020209987A1 (en) Device and method for processing environmental sensor data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16819309

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16819309

Country of ref document: EP

Kind code of ref document: A1