WO2017167484A1 - Method and device for localising the head of a vehicle occupant - Google Patents

Method and device for localising the head of a vehicle occupant Download PDF

Info

Publication number
WO2017167484A1
WO2017167484A1 PCT/EP2017/052894 EP2017052894W WO2017167484A1 WO 2017167484 A1 WO2017167484 A1 WO 2017167484A1 EP 2017052894 W EP2017052894 W EP 2017052894W WO 2017167484 A1 WO2017167484 A1 WO 2017167484A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
vehicle occupant
vehicle
information
spectacles
Prior art date
Application number
PCT/EP2017/052894
Other languages
German (de)
French (fr)
Inventor
Anke SCHWARZ
Ernst Schermann
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to CN201780020950.2A priority Critical patent/CN108885340A/en
Priority to EP17704009.4A priority patent/EP3436866A1/en
Publication of WO2017167484A1 publication Critical patent/WO2017167484A1/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Definitions

  • the invention is based on a device or a method according to the preamble of the independent claims.
  • the subject of the present invention is also a computer program.
  • the head orientation of a driver of a vehicle plays an important role in safety and comfort functions. For example, based on the
  • 2-D image-based methods or methods in which a head pose can be estimated using depth data in real time For example, 2-D image-based methods or methods in which a head pose can be estimated using depth data in real time.
  • a method for locating a head of a vehicle occupant wherein the vehicle occupant wears spectacles comprising the steps of:
  • the vehicle occupant may be a driver or passenger of a vehicle.
  • the eyeglass information may represent a position or position of the eyeglasses.
  • the spectacle information can be processed to determine a position or position of the head depending on the position or position of the spectacles.
  • the approach presented here is based on the knowledge that with the aid of data regarding a pair of spectacles worn by a vehicle occupant, a head of the vehicle occupant can be located in the vehicle interior.
  • the head of the vehicle occupant can be located accurately and reliably even if the face of the vehicle occupant is partially hidden by the glasses.
  • a position and additionally or alternatively a position of the spectacles can be read in as the spectacle information.
  • a position of the spectacles can be understood as data representing a location of the spectacles in the vehicle interior.
  • a position of the glasses can be understood as meaning an orientation of the spectacles in the vehicle interior.
  • the position or location of the glasses can be made using a three-dimensional
  • Coordinate system have been determined. This embodiment enables accurate and reliable location of the head in response to location of the goggles. According to a further embodiment, at least one vehicle-occupant-specific parameter can be read in during the reading-in step. In the step of processing, the eyeglass information can be read using the
  • vehicle occupant-specific parameters are processed.
  • a vehicle-occupant-specific parameter can be understood, for example, as a parameter with the aid of which the vehicle occupant can be identified.
  • the vehicle occupant-specific parameter may indicate, for example, whether the vehicle occupant is wearing glasses or not.
  • the vehicle occupant-specific parameter such as a usual or average position or position of the spectacles in the vehicle interior, may represent.
  • Localizing the head can be increased.
  • a reference position and / or reference position of the spectacles is read in as the vehicle occupant-specific parameter.
  • the head may be adjusted by comparing the position and / or position of the glasses with the reference position and / or
  • the reference position or positions may be, for example, a usual or average position or position of the spectacles when the vehicle occupant wears the spectacles in the vehicle.
  • the reference position or positions may be a position or attitude of the goggles that corresponds to a position or attitude of the head with sufficient vigilance or attention of the vehicle occupant.
  • Computing effort can be located reliably and accurately.
  • the spectacle information is processed in order to determine a position and / or position of the head.
  • This embodiment allows an unambiguous localization of the head.
  • the reading-in step information generated using at least one image of the vehicle occupant may be read in as the spectacle information. This enables continuous generation of the spectacle information.
  • the method may also include a step of capturing the image of the
  • Vehicle occupants include.
  • the detection device may be, for example, a camera for monitoring the vehicle interior.
  • the image of the vehicle occupant can be detected.
  • information generated using at least one algorithm may be read in as the eyeglass information.
  • the method may further include a step of generating a
  • Attention value depending on a result of processing the eyewear information include. Additionally or alternatively, in the step of generating, a drive signal for driving a vehicle control device may be generated depending on the result of the processing. This allows a reliable determination of the attention of the vehicle occupant or a reliable control of the vehicle.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • the approach presented here also provides a device which is designed to implement the steps of a variant of a method presented here
  • the device may comprise at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or a Actuator for reading sensor signals from the sensor or for outputting data or control signals to the actuator and / or at least one
  • the arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit is a flash memory, an EPROM or a
  • the magnetic storage unit can be.
  • the communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
  • a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the device may have an interface, which may be formed in hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • the interfaces are their own integrated circuits or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • the device is used to control a driver assistance system of a vehicle.
  • the device may, for example, sensor signals such as image signals of at least one camera for monitoring the interior of the vehicle, in particular a
  • a computer program product or computer program with program code which is stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical disk Memory may be stored and for carrying out, implementing and / or controlling the steps of the method according to one of the above
  • FIG. 1 shows a schematic representation of a vehicle with a device according to an embodiment
  • Fig. 2 is a schematic representation of a head of a vehicle occupant of Fig. 1;
  • Fig. 3 is a schematic representation of a device according to a
  • FIG. 4 is a schematic illustration of a procedure for locating a head using a device according to an embodiment.
  • FIG. 1 shows a schematic representation of a vehicle 100 with a device 102 according to an exemplary embodiment.
  • the vehicle 100 is equipped with a detection device 104, which is designed to be a vehicle occupant 106, here a driver of the vehicle 100, in particular capture an area of a head 108 of the vehicle occupant 106 and send an image signal 110 representing at least one captured image of the vehicle occupant 106 to the device 102.
  • the detection device 104 is, for example, a camera for monitoring a vehicle interior of the vehicle 100
  • Vehicle occupant 106 wears goggles 112.
  • Device 102 is configured to detect goggles 112 using image signal 110 and to locate head 108 within the vehicle interior, depending on a result of detecting goggles 112.
  • the device 102 is
  • the device 102 is configured to generate and send a drive signal 114 to a vehicle controller 116 depending on a result of locating the head 108.
  • the vehicle control unit 116 is configured, for example, to use the drive signal 114 to provide a driver assistance function for the driver
  • the device 102 is configured to generate an attention value 118 representing an attention of the vehicle occupant 106, depending on the result of the location, and to the vehicle
  • Vehicle control unit 116 to send.
  • the vehicle control unit 116 is configured to use the vehicle 100 using the
  • Fig. 2 shows a schematic representation of a head 108 of a
  • the head 108 shown in FIG. 2 is, for example, an image of the head 108 taken by the detection device. Shown is a frontal view of the head 108 where the eyeglasses 112 can be seen.
  • the device is configured to adjust the position or attitude of the glasses 112 from the image represented by the image signal using a three-dimensional coordinate system extract. For this purpose, the device determines the position or position of the spectacles 112 relative to an x, y or z axis. Based on x, y, and z coordinates representing the position or attitude of the glasses 112, the device determines x, y, and z coordinates representing the position or location of the head 108.
  • FIG. 3 shows a schematic representation of a device 102 according to an exemplary embodiment.
  • the device 102 may be a device described above with reference to FIGS. 1 and 2.
  • the device 102 may be a device described above with reference to FIGS. 1 and 2.
  • Device 102 comprises a read-in unit 310, which is designed to read in spectacle information 315 representing the spectacles and to a
  • the processing unit 320 is configured to locate the head of the vehicle occupant using the eyeglass information 315 and to generate a localization value 325 representing a result of the locating.
  • Localization value 325 represents, for example, the position or position of the head determined as a function of the position or position of the spectacles.
  • the read-in unit 310 is configured to further read in the image signal 110 via an interface to the detection device and to forward it to an optional generation unit 330.
  • the generating unit 330 is configured to use the
  • Image signal 110 to generate the eyeglass information 315.
  • Here reads the
  • the reading unit 310 reads the eyeglass information 315 via the generating unit 330 e.
  • the generating unit 330 is configured to extract the eyeglass information 315 from the image signal 110 using at least one algorithm.
  • the generating unit 330 is configured to further include the
  • the read-in unit 310 furthermore serves to read in at least one vehicle-occupant-specific parameter 335.
  • the read-in unit 310 forwards the parameter 335 to the processing unit 320, wherein the processing unit 120 is designed to generate the
  • localization value 325 may be generated using parameter 335.
  • the parameter 335 represents, for example, a reference position or reference position of the glasses.
  • a reference position or positions may be understood to mean a desired position or desired position of the spectacles, which may correspond, for example, to an ordinary or average position or position of the spectacles.
  • the processing unit 320 uses the parameter 335 to determine the position or attitude of the head by comparing the position or attitude of the goggles with the reference position or positions. Such a spectacle orientation estimate can be robust
  • Head orientation estimation can be performed.
  • a block 402 represents the driver of the vehicle, a block 402 an input, a block 404 a sensor for detecting the
  • Eyeglass segmentation a block 410 an optional driver ID, a block 412 at least one optional further parameter, a block 414 a
  • a block 416 is a computing unit
  • a block 418 is an output
  • a block 420 is a driver's line of sight
  • a block 422 is a driver's line of sight
  • a block 424 a driver's attention and a block 426 an airbag adjustment.
  • FIG. 5 shows a flowchart of a method 500 according to a
  • the method 500 may, for example, be carried out in conjunction with a device described above with reference to FIGS. 1 to 4.
  • the spectacle information is read in a step 510.
  • the eyewear information is processed to locate the head of the vehicle occupant. Steps 510, 520 may be performed continuously.
  • a pair of (sun) glasses can greatly obscure a meaningful eye region important for a head pose estimation. Even with additional occlusions in the mouth area, it may be difficult or even impossible to perform a robust determination of head orientation.
  • the head position or orientation is determined using 3-D data from a depth image of the driver.
  • the glasses are detected from the depth image and segmented.
  • the orientation of the glasses is determined and from this the head position and orientation are closed.
  • the position of the glasses reflects a robust head position and orientation.
  • the driver is continuously detected by a sensor.
  • the sensor captures both 2-D near-infrared data and depth data. From the obtained data, the glasses are detected and segmented.
  • Eyeglass segmentation can be done through simple algorithms available
  • the determination of the position and orientation of the spectacles is much simpler than the determination of the position and orientation of the head, since spectacles, especially in the depth image, have specific features such as a planar surface or detectable edges.
  • an existing person ID becomes additional
  • Person-specific parameters taken into account such as a familiar position or orientation of the driver's glasses.
  • an average position or orientation of a pair of glasses can be used.
  • the position or orientation of the glasses determines the position or orientation of the head robust.
  • a position or orientation of the head robust.
  • a pair of glasses can be used.
  • a level of drowsiness or a level of attention of the driver are determined.
  • an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Abstract

The invention relates to a method for localising the head (108) of a vehicle occupant (106) wearing a pair of glasses (112). Said method consists of reading and processing information representing the glasses (112) in order to locate the head (108).

Description

Beschreibung Titel  Description title
Verfahren und Vorrichtung zum Lokalisieren eines Kopfes eines  Method and device for locating a head of a
Fahrzeuginsassen passenger
Stand der Technik State of the art
Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm. The invention is based on a device or a method according to the preamble of the independent claims. The subject of the present invention is also a computer program.
Die Kopforientierung eines Fahrers eines Fahrzeugs spielt eine wichtige Rolle für Sicherheits- und Komfortfunktionen. Beispielsweise kann anhand der The head orientation of a driver of a vehicle plays an important role in safety and comfort functions. For example, based on the
Kopforientierung eine Spurwechselabsicht des Fahrers vorausgesagt werden. Ferner kann die Kopforientierung als wichtiger Parameter zur visuellen Kopforientierung a lane change intent of the driver are predicted. Furthermore, the head orientation can be an important parameter for the visual
Einschätzung einer Aufmerksamkeit oder einer Müdigkeit des Fahrers verwendet werden. Assessment of attention or fatigue of the driver.
Es sind verschiedene Verfahren zur Kopfposenschätzung bekannt, Various methods of head pose estimation are known,
beispielsweise 2-D-bildbasierte Verfahren oder Verfahren, bei denen eine Kopfpose mithilfe von Tiefendaten in Echtzeit geschätzt werden kann. For example, 2-D image-based methods or methods in which a head pose can be estimated using depth data in real time.
Offenbarung der Erfindung Disclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Lokalisieren eines Kopfes eines Fahrzeuginsassen, eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Against this background, with the approach presented here, a method for locating a head of a vehicle occupant, a device using this method, and finally a corresponding one
Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich. Computer program presented according to the main claims. The measures listed in the dependent claims are advantageous Further developments and improvements of the device specified in the independent claim possible.
Es wird ein Verfahren zum Lokalisieren eines Kopfes eines Fahrzeuginsassen vorgestellt, wobei der Fahrzeuginsasse eine Brille trägt, und wobei das Verfahren folgende Schritte umfasst: A method for locating a head of a vehicle occupant wherein the vehicle occupant wears spectacles is provided, the method comprising the steps of:
Einlesen einer die Brille repräsentierenden Brilleninformation; und Reading a spectacle information representing the spectacles; and
Verarbeiten der Brilleninformation, um den Kopf zu lokalisieren. Process the eyeglass information to locate the head.
Bei dem Fahrzeuginsassen kann es sich um einen Fahrer oder Beifahrer eines Fahrzeugs handeln. Die Brilleninformation kann beispielsweise eine Position oder Lage der Brille repräsentieren. Beispielsweise kann die Brilleninformation verarbeitet werden, um in Abhängigkeit von der Position oder Lage der Brille eine Position oder Lage des Kopfes zu bestimmen. The vehicle occupant may be a driver or passenger of a vehicle. For example, the eyeglass information may represent a position or position of the eyeglasses. For example, the spectacle information can be processed to determine a position or position of the head depending on the position or position of the spectacles.
Der hier vorgestellte Ansatz beruht auf der Erkenntnis, dass mithilfe von Daten bezüglich einer von einem Fahrzeuginsassen getragenen Brille ein Kopf des Fahrzeuginsassen im Fahrzeuginnenraum lokalisiert werden kann. Somit kann der Kopf des Fahrzeuginsassen auch dann genau und zuverlässig lokalisiert werden, wenn das Gesicht des Fahrzeuginsassen teilweise durch die Brille verdeckt ist. The approach presented here is based on the knowledge that with the aid of data regarding a pair of spectacles worn by a vehicle occupant, a head of the vehicle occupant can be located in the vehicle interior. Thus, the head of the vehicle occupant can be located accurately and reliably even if the face of the vehicle occupant is partially hidden by the glasses.
Gemäß einer Ausführungsform kann im Schritt des Einlesens eine Position und zusätzlich oder alternativ eine Lage der Brille als die Brilleninformation eingelesen werden. Unter einer Position der Brille können einen Ort der Brille im Fahrzeuginnenraum repräsentierende Daten verstanden werden. Unter einer Lage der Brille können eine Orientierung der Brille im Fahrzeuginnenraum repräsentierende Daten verstanden werden. Beispielsweise kann die Position oder Lage der Brille unter Verwendung eines dreidimensionalen According to one embodiment, in the reading step, a position and additionally or alternatively a position of the spectacles can be read in as the spectacle information. A position of the spectacles can be understood as data representing a location of the spectacles in the vehicle interior. A position of the glasses can be understood as meaning an orientation of the spectacles in the vehicle interior. For example, the position or location of the glasses can be made using a three-dimensional
Koordinatensystems ermittelt worden sein. Durch diese Ausführungsform wird eine genaue und zuverlässige Lokalisierung des Kopfes in Abhängigkeit von einer Lokalisierung der Brille ermöglicht. Gemäß einer weiteren Ausführungsform kann im Schritt des Einlesens zumindest ein fahrzeuginsassenspezifischer Parameter eingelesen werden. Im Schritt des Verarbeitens kann die Brilleninformation unter Verwendung des Coordinate system have been determined. This embodiment enables accurate and reliable location of the head in response to location of the goggles. According to a further embodiment, at least one vehicle-occupant-specific parameter can be read in during the reading-in step. In the step of processing, the eyeglass information can be read using the
fahrzeuginsassenspezifischen Parameters verarbeitet werden. Unter einem fahrzeuginsassenspezifischen Parameter kann beispielsweise ein Parameter verstanden werden, mit dessen Hilfe der Fahrzeuginsasse identifiziert werden kann. Der fahrzeuginsassenspezifische Parameter kann beispielsweise anzeigen, ob der Fahrzeuginsasse Brillenträger ist oder nicht. Das Weiteren kann der fahrzeuginsassenspezifischen Parameter, etwa eine gewohnte oder durchschnittliche Position oder Lage der Brille im Fahrzeuginnenraum, repräsentieren. Durch diese Ausführungsform kann die Genauigkeit beim vehicle occupant-specific parameters are processed. A vehicle-occupant-specific parameter can be understood, for example, as a parameter with the aid of which the vehicle occupant can be identified. The vehicle occupant-specific parameter may indicate, for example, whether the vehicle occupant is wearing glasses or not. Furthermore, the vehicle occupant-specific parameter, such as a usual or average position or position of the spectacles in the vehicle interior, may represent. By this embodiment, the accuracy in
Lokalisieren des Kopfes erhöht werden. Localizing the head can be increased.
Es ist vorteilhaft, wenn im Schritt des Einlesens eine Referenzposition und/oder Referenzlage der Brille als der fahrzeuginsassenspezifische Parameter eingelesen wird. Im Schritt des Verarbeitens kann der Kopf durch Vergleichen der Position und/oder Lage der Brille mit der Referenzposition und/oder It is advantageous if, in the reading step, a reference position and / or reference position of the spectacles is read in as the vehicle occupant-specific parameter. In the step of processing, the head may be adjusted by comparing the position and / or position of the glasses with the reference position and / or
Referenzlage lokalisiert werden. Bei der Referenzposition oder -läge kann es sich beispielsweise um eine gewohnte oder durchschnittliche Position oder Lage der Brille handeln, wenn der Fahrzeuginsassen die Brille im Fahrzeug trägt. Insbesondere kann es sich bei der Referenzposition oder -läge um eine Position oder Lage der Brille handeln, die einer Position oder Lage des Kopfes bei ausreichender Wachsamkeit oder Aufmerksamkeit des Fahrzeuginsassen entspricht. Durch diese Ausführungsform kann der Kopf mit geringem Reference location are localized. The reference position or positions may be, for example, a usual or average position or position of the spectacles when the vehicle occupant wears the spectacles in the vehicle. In particular, the reference position or positions may be a position or attitude of the goggles that corresponds to a position or attitude of the head with sufficient vigilance or attention of the vehicle occupant. By this embodiment, the head with low
Rechenaufwand zuverlässig und genau lokalisiert werden. Computing effort can be located reliably and accurately.
Ferner ist es von Vorteil, wenn im Schritt des Verarbeitens die Brilleninformation verarbeitet wird, um eine Position und/oder Lage des Kopfes zu bestimmen. Diese Ausführungsform ermöglicht eine eindeutige Lokalisierung des Kopfes. Furthermore, it is advantageous if, in the step of processing, the spectacle information is processed in order to determine a position and / or position of the head. This embodiment allows an unambiguous localization of the head.
Gemäß einer weiteren Ausführungsform kann im Schritt des Einlesens eine unter Verwendung zumindest eines Bildes des Fahrzeuginsassen erzeugte Information als die Brilleninformation eingelesen werden. Dadurch wird eine kontinuierliche Erzeugung der Brilleninformation ermöglicht. Das Verfahren kann zudem einen Schritt des Erfassens des Bildes des According to a further embodiment, in the reading-in step, information generated using at least one image of the vehicle occupant may be read in as the spectacle information. This enables continuous generation of the spectacle information. The method may also include a step of capturing the image of the
Fahrzeuginsassen durch eine Erfassungseinrichtung zum Erfassen des Vehicle occupant by a detection device for detecting the
Fahrzeuginsassen umfassen. Bei der Erfassungseinrichtung kann es sich beispielsweise um eine Kamera zum Überwachen des Fahrzeuginnenraums handeln. Durch diese Ausführungsform kann das Bild des Fahrzeuginsassen erfasst werden. Vehicle occupants include. The detection device may be, for example, a camera for monitoring the vehicle interior. By this embodiment, the image of the vehicle occupant can be detected.
Des Weiteren kann im Schritt des Einlesens eine unter Verwendung zumindest eines Algorithmus erzeugte Information als die Brilleninformation eingelesen werden. Diese Ausführungsform ermöglicht ein schnelles und effizientesFurthermore, in the reading-in step, information generated using at least one algorithm may be read in as the eyeglass information. This embodiment enables a fast and efficient
Erzeugen der Brilleninformation. Generate the spectacle information.
Das Verfahren kann ferner einen Schritt des Erzeugens eines eine The method may further include a step of generating a
Aufmerksamkeit des Fahrzeuginsassen repräsentierenden Attention of the vehicle occupant
Aufmerksamkeitswertes abhängig von einem Ergebnis des Verarbeitens der Brilleninformation umfassen. Zusätzlich oder alternativ kann im Schritt des Erzeugens ein Ansteuersignal zum Ansteuern eines Fahrzeugsteuergeräts abhängig vom Ergebnis des Verarbeitens erzeugt werden. Dadurch wird eine zuverlässige Bestimmung der Aufmerksamkeit des Fahrzeuginsassen oder auch eine zuverlässige Steuerung des Fahrzeugs ermöglicht. Attention value depending on a result of processing the eyewear information include. Additionally or alternatively, in the step of generating, a drive signal for driving a vehicle control device may be generated depending on the result of the processing. This allows a reliable determination of the attention of the vehicle occupant or a reliable control of the vehicle.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einem Steuergerät, implementiert sein. This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in The approach presented here also provides a device which is designed to implement the steps of a variant of a method presented here
entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. to implement, control or implement appropriate facilities. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine For this purpose, the device may comprise at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or a Actuator for reading sensor signals from the sensor or for outputting data or control signals to the actuator and / or at least one
Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine Communication interface for reading or outputting data embedded in a communication protocol. The arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit is a flash memory, an EPROM or a
magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann. magnetic storage unit can be. The communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind. In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
In einer vorteilhaften Ausgestaltung erfolgt durch die Vorrichtung eine Steuerung eines Fahrerassistenzsystems eines Fahrzeugs. Hierzu kann die Vorrichtung beispielsweise auf Sensorsignale wie etwa Bildsignale zumindest einer Kamera zum Überwachen des Innenraums des Fahrzeugs, insbesondere eines In an advantageous embodiment, the device is used to control a driver assistance system of a vehicle. For this purpose, the device may, for example, sensor signals such as image signals of at least one camera for monitoring the interior of the vehicle, in particular a
Kopfbereichs des Fahrzeuginsassen, Umfeldsensorsignale, Head area of the vehicle occupant, environment sensor signals,
Lenkwinkelsensorsignale oder Raddrehzahlsensorsignale zugreifen. Steering angle sensor signals or Raddrehzahlsensorsignale access.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend Also of advantage is a computer program product or computer program with program code which is stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical disk Memory may be stored and for carrying out, implementing and / or controlling the steps of the method according to one of the above
beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird. described embodiments, in particular when the program product or program is executed on a computer or a device.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt: Embodiments of the invention are illustrated in the drawings and explained in more detail in the following description. It shows:
Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel; 1 shows a schematic representation of a vehicle with a device according to an embodiment;
Fig. 2 eine schematische Darstellung eines Kopfes eines Fahrzeuginsassen aus Fig. 1; Fig. 2 is a schematic representation of a head of a vehicle occupant of Fig. 1;
Fig. 3 eine schematische Darstellung einer Vorrichtung gemäß einem Fig. 3 is a schematic representation of a device according to a
Ausführungsbeispiel; Embodiment;
Fig. 4 eine schematische Darstellung eines Ablaufs beim Lokalisieren eines Kopfes unter Verwendung einer Vorrichtung gemäß einem Ausführungsbeispiel; und 4 is a schematic illustration of a procedure for locating a head using a device according to an embodiment; and
Fig. 5 ein Ablaufdiagramm eines Verfahrens gemäß einem 5 is a flowchart of a method according to a
Ausführungsbeispiel. Embodiment.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren In the following description of favorable embodiments of the present invention are for the in the various figures
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche represented and similar elements acting the same or similar
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird. Reference numeral used, wherein a repeated description of these elements is omitted.
Fig. 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 102 gemäß einem Ausführungsbeispiel. Das Fahrzeug 100 ist mit einer Erfassungseinrichtung 104 ausgestattet, die ausgebildet ist, um einen Fahrzeuginsassen 106, hier einen Fahrer des Fahrzeugs 100, insbesondere einen Bereich eines Kopfes 108 des Fahrzeuginsassen 106, zu erfassen und ein Bildsignal 110, das zumindest ein beim Erfassen aufgenommenes Bild des Fahrzeuginsassen 106 repräsentiert, an die Vorrichtung 102 zu senden. Bei der Erfassungseinrichtung 104 handelt es sich beispielsweise um eine Kamera zum Überwachen eines Fahrzeuginnenraums des Fahrzeugs 100. Der 1 shows a schematic representation of a vehicle 100 with a device 102 according to an exemplary embodiment. The vehicle 100 is equipped with a detection device 104, which is designed to be a vehicle occupant 106, here a driver of the vehicle 100, in particular capture an area of a head 108 of the vehicle occupant 106 and send an image signal 110 representing at least one captured image of the vehicle occupant 106 to the device 102. The detection device 104 is, for example, a camera for monitoring a vehicle interior of the vehicle 100
Fahrzeuginsasse 106 trägt eine Brille 112. Die Vorrichtung 102 ist ausgebildet, um unter Verwendung des Bildsignals 110 die Brille 112 zu detektieren und abhängig von einem Ergebnis des Detektierens der Brille 112 den Kopf 108 im Fahrzeuginnenraum zu lokalisieren.  Vehicle occupant 106 wears goggles 112. Device 102 is configured to detect goggles 112 using image signal 110 and to locate head 108 within the vehicle interior, depending on a result of detecting goggles 112.
Gemäß einem optionalen Ausführungsbeispiel ist die Vorrichtung 102 According to an optional embodiment, the device 102 is
ausgebildet, um beim Detektieren der Brille 112 eine Position oder Lage der Brille 112 zu ermitteln und in Abhängigkeit von der Position oder Lage der Brille 112 eine Position oder Lage des Kopfes 108 zu ermitteln. designed to detect a position or position of the spectacles 112 when detecting the spectacles 112 and to determine a position or position of the head 108 as a function of the position or position of the spectacles 112.
Gemäß einem weiteren optionalen Ausführungsbeispiel ist die Vorrichtung 102 ausgebildet, um abhängig von einem Ergebnis des Lokalisierens des Kopfes 108 ein Ansteuersignal 114 zu erzeugen und an ein Fahrzeugsteuergerät 116 zu senden. Das Fahrzeugsteuergerät 116 ist beispielsweise ausgebildet, um unter Verwendung des Ansteuersignais 114 eine Fahrerassistenzfunktion zum According to another optional embodiment, the device 102 is configured to generate and send a drive signal 114 to a vehicle controller 116 depending on a result of locating the head 108. The vehicle control unit 116 is configured, for example, to use the drive signal 114 to provide a driver assistance function for the driver
Unterstützen des Fahrzeuginsassen 106 beim Führen des Fahrzeugs 100 zu steuern. Optional ist die Vorrichtung 102 ausgebildet, um abhängig vom Ergebnis des Lokalisierens einen eine Aufmerksamkeit des Fahrzeuginsassen 106 repräsentierenden Aufmerksamkeitswert 118 zu erzeugen und an das  Assisting the vehicle occupant 106 in guiding the vehicle 100 to control. Optionally, the device 102 is configured to generate an attention value 118 representing an attention of the vehicle occupant 106, depending on the result of the location, and to the vehicle
Fahrzeugsteuergerät 116 zu senden. Hierbei ist das Fahrzeugsteuergerät 116 ausgebildet, um das Fahrzeug 100 unter Verwendung des Vehicle control unit 116 to send. Here, the vehicle control unit 116 is configured to use the vehicle 100 using the
Aufmerksamkeitswertes 118 zu steuern. Attention worth 118 to control.
Fig. 2 zeigt eine schematische Darstellung eines Kopfes 108 eines Fig. 2 shows a schematic representation of a head 108 of a
Fahrzeuginsassen 106 aus Fig. 1. Bei dem in Fig. 2 gezeigten Kopf 108 handelt es sich beispielsweise um ein durch die Erfassungseinrichtung aufgenommenes Bild des Kopfes 108. Gezeigt ist eine Frontalansicht des Kopfes 108, bei der die Brille 112 zu erkennen ist. Die Vorrichtung ist beispielsweise ausgebildet, um die Position oder Lage der Brille 112 aus dem durch das Bildsignal repräsentierten Bild unter Verwendung eines dreidimensionalen Koordinatensystems zu extrahieren. Hierzu ermittelt die Vorrichtung die Position oder Lage der Brille 112 relativ zu einer x-, y- oder z-Achse. Anhand von x-, y- und z-Koordinaten, die die Position oder Lage der Brille 112 repräsentieren, ermittelt die Vorrichtung x-, y- und z-Koordinaten, die die Position oder Lage des Kopfes 108 repräsentieren. The vehicle occupant 106 of FIG. 1. The head 108 shown in FIG. 2 is, for example, an image of the head 108 taken by the detection device. Shown is a frontal view of the head 108 where the eyeglasses 112 can be seen. For example, the device is configured to adjust the position or attitude of the glasses 112 from the image represented by the image signal using a three-dimensional coordinate system extract. For this purpose, the device determines the position or position of the spectacles 112 relative to an x, y or z axis. Based on x, y, and z coordinates representing the position or attitude of the glasses 112, the device determines x, y, and z coordinates representing the position or location of the head 108.
Fig. 3 zeigt eine schematische Darstellung einer Vorrichtung 102 gemäß einem Ausführungsbeispiel. Bei der Vorrichtung 102 kann es sich um eine vorangehend anhand der Figuren 1 und 2 beschriebene Vorrichtung handeln. Die FIG. 3 shows a schematic representation of a device 102 according to an exemplary embodiment. The device 102 may be a device described above with reference to FIGS. 1 and 2. The
Vorrichtung 102 umfasst eine Einleseeinheit 310, die ausgebildet ist, um eine die Brille repräsentierende Brilleninformation 315 einzulesen und an eine Device 102 comprises a read-in unit 310, which is designed to read in spectacle information 315 representing the spectacles and to a
Verarbeitungseinheit 320 weiterzuleiten. Die Verarbeitungseinheit 320 ist ausgebildet, um den Kopf des Fahrzeuginsassen unter Verwendung der Brilleninformation 315 zu lokalisieren und einen ein Ergebnis des Lokalisierens repräsentierenden Lokalisierungswert 325 zu erzeugen. Der Forward processing unit 320. The processing unit 320 is configured to locate the head of the vehicle occupant using the eyeglass information 315 and to generate a localization value 325 representing a result of the locating. Of the
Lokalisierungswert 325 repräsentiert beispielsweise die in Abhängigkeit von der Position oder Lage der Brille ermittelte Position oder Lage des Kopfes. Localization value 325 represents, for example, the position or position of the head determined as a function of the position or position of the spectacles.
Gemäß einem Ausführungsbeispiel ist die Einleseeinheit 310 ausgebildet, um ferner das Bildsignal 110 über eine Schnittstelle zu der Erfassungseinrichtung einzulesen und an eine optionale Erzeugungseinheit 330 weiterzuleiten. Die Erzeugungseinheit 330 ist ausgebildet, um unter Verwendung des According to one embodiment, the read-in unit 310 is configured to further read in the image signal 110 via an interface to the detection device and to forward it to an optional generation unit 330. The generating unit 330 is configured to use the
Bildsignals 110 die Brilleninformation 315 zu erzeugen. Hierbei liest die Image signal 110 to generate the eyeglass information 315. Here reads the
Einleseeinheit 310 die Brilleninformation 315 über die Erzeugungseinheit 330 e Gemäß einem Ausführungsbeispiel ist die Erzeugungseinheit 330 ausgebildet, um die Brilleninformation 315 unter Verwendung zumindest eines Algorithmus aus dem Bildsignal 110 zu extrahieren. The reading unit 310 reads the eyeglass information 315 via the generating unit 330 e. According to an embodiment, the generating unit 330 is configured to extract the eyeglass information 315 from the image signal 110 using at least one algorithm.
Optional ist die Erzeugungseinheit 330 ausgebildet, um ferner den Optionally, the generating unit 330 is configured to further include the
Lokalisierungswert 325 von der Verarbeitungseinheit 320 zu empfangen, unterLocalization value 325 received from the processing unit 320, below
Verwendung des Lokalisierungswertes 325 das Ansteuersignal 114 oder den Aufmerksamkeitswert 118 zu erzeugen und das Ansteuersignal 114 oder den Aufmerksamkeitswert 118 an eine Schnittstelle zu dem Fahrzeugsteuergerät auszugeben. Gemäß einem weiteren Ausführungsbeispiel dient die Einleseeinheit 310 ferner zum Einlesen zumindest eines fahrzeuginsassenspezifischen Parameters 335. Die Einleseeinheit 310 gibt den Parameter 335 an die Verarbeitungseinheit 320 weiter, wobei die Verarbeitungseinheit 120 ausgebildet ist, um den Using the localization value 325 to generate the drive signal 114 or attention value 118 and output the drive signal 114 or attention value 118 to an interface to the vehicle control unit. According to a further exemplary embodiment, the read-in unit 310 furthermore serves to read in at least one vehicle-occupant-specific parameter 335. The read-in unit 310 forwards the parameter 335 to the processing unit 320, wherein the processing unit 120 is designed to generate the
Lokalisierungswert 325 ferner unter Verwendung des Parameters 335 zu erzeugen. Der Parameter 335 repräsentiert beispielsweise eine Referenzposition oder Referenzlage der Brille. Unter einer Referenzposition oder -läge kann eine Sollposition oder Solllage der Brille verstanden werden, die beispielsweise einer gewöhnlichen oder durchschnittlichen Position oder Lage der Brille entsprechen kann. In diesem Fall verwendet die Verarbeitungseinheit 320 den Parameter 335, um die Position oder Lage des Kopfes durch Vergleichen der Position oder Lage der Brille mit der Referenzposition oder -läge zu ermitteln. Anhand einer derartigen Brillenorientierungsschätzung kann eine robuste Further, localization value 325 may be generated using parameter 335. The parameter 335 represents, for example, a reference position or reference position of the glasses. A reference position or positions may be understood to mean a desired position or desired position of the spectacles, which may correspond, for example, to an ordinary or average position or position of the spectacles. In this case, the processing unit 320 uses the parameter 335 to determine the position or attitude of the head by comparing the position or attitude of the goggles with the reference position or positions. Such a spectacle orientation estimate can be robust
Kopforientierungsschätzung durchgeführt werden. Head orientation estimation can be performed.
Fig. 4 zeigt eine schematische Darstellung eines Ablaufs beim Lokalisieren eines Kopfes unter Verwendung einer Vorrichtung gemäß einem Ausführungsbeispiel, etwa einer Vorrichtung, wie sie vorangehend anhand der Figuren 1 bis 3 beschrieben ist. Hierbei repräsentiert ein Block 402 den Fahrer des Fahrzeugs, ein Block 402 einen Input, ein Block 404 einen Sensor zum Erfassen des 4 shows a schematic illustration of a procedure for locating a head using a device according to an exemplary embodiment, for example a device as described above with reference to FIGS. 1 to 3. Here, a block 402 represents the driver of the vehicle, a block 402 an input, a block 404 a sensor for detecting the
Fahrers, ein Block 406 eine Brillendetektion, ein Block 408 eine Driver, a block 406 a spectacle detection, a block 408 a
Brillensegmentierung, ein Block 410 eine optionale Fahrer-ID, ein Block 412 zumindest einen optionalen weiteren Parameter, ein Block 414 eine Eyeglass segmentation, a block 410 an optional driver ID, a block 412 at least one optional further parameter, a block 414 a
Kopforientierung, ein Block 416 eine Recheneinheit, ein Block 418 einen Output, ein Block 420 eine Blickrichtung des Fahrers, ein Block 422 ein For example, a block 416 is a computing unit, a block 418 is an output, a block 420 is a driver's line of sight, a block 422
Schläfrigkeitslevel des Fahrers, ein Block 424 eine Aufmerksamkeit des Fahrers und ein Block 426 eine Airbageinstellung. Drowsiness level of the driver, a block 424 a driver's attention and a block 426 an airbag adjustment.
Fig. 5 zeigt ein Ablaufdiagramm eines Verfahrens 500 gemäß einem FIG. 5 shows a flowchart of a method 500 according to a
Ausführungsbeispiel. Das Verfahren 500 kann beispielsweise im Zusammenhang mit einer vorangehend anhand der Figuren 1 bis 4 beschriebenen Vorrichtung durchgeführt werden. Hierbei wird in einem Schritt 510 die Brilleninformation eingelesen. In einem Schritt 520 wird die Brilleninformation verarbeitet, um den Kopf des Fahrzeuginsassen zu lokalisieren. Die Schritte 510, 520 können fortlaufend durchgeführt werden. Embodiment. The method 500 may, for example, be carried out in conjunction with a device described above with reference to FIGS. 1 to 4. In this case, the spectacle information is read in a step 510. In step 520, the eyewear information is processed to locate the head of the vehicle occupant. Steps 510, 520 may be performed continuously.
Im Fall starker Verdeckungen des Kopfes kann es schwierig sein, mithilfe bereits vorhandener Algorithmen die Kopforientierung robust zu bestimmen. In the case of severe occlusion of the head, it may be difficult to robustly determine head orientation using existing algorithms.
Beispielsweise kann eine (Sonnen-) Brille eine aussagekräftige und für eine Kopfposenschätzung wichtige Augenregion stark verdecken. Auch bei zusätzlichen Verdeckungen im Mundbereich kann es schwierig bis unmöglich sein, eine robuste Bestimmung der Kopforientierung durchzuführen. For example, a pair of (sun) glasses can greatly obscure a meaningful eye region important for a head pose estimation. Even with additional occlusions in the mouth area, it may be difficult or even impossible to perform a robust determination of head orientation.
Mittels des Verfahrens 500 ist es nun möglich, den Fahrer durch mehr Sicherheit und Komfortfunktionen zu unterstützen. Eine robuste Kopforientierung stellt eine Basisvariable für diese Funktionen dar. By means of the method 500, it is now possible to assist the driver with more safety and comfort functions. A robust head orientation is a basic variable for these functions.
Derzeitige Systeme zur Müdigkeitsschätzung basieren in der Regel auf nicht visuellen Parametern, etwa auf einem Lenkwinkel oder auf Daten von Current fatigue estimation systems are usually based on non-visual parameters such as a steering angle or data from
Spurhaltesensoren. Solche Parameter sind in der Signalkette deutlich weiter entfernt als direkt messbare physiologische Veränderungen. Des Weiteren lässt das Lenkverhalten oft keinen eindeutigen Rückschluss auf die Müdigkeit des Fahrers zu. Beispielsweise kann beim Fahren mit Anhänger ein ähnliches Lenkwinkelsignal wie beim Fahren mit Übermüdung erzeugt werden. Tracking sensors. Such parameters are significantly further away in the signal chain than directly measurable physiological changes. Furthermore, the steering behavior often does not allow a clear conclusion on the fatigue of the driver. For example, when driving with a trailer, a steering angle signal similar to when driving with fatigue can be generated.
Das vorangehend beschriebene Verfahren zur Kopfposenschätzung funktioniert hingegen auch dann, wenn der Fahrer eine Brille oder Sonnenbrille trägt. In diesem Fall sind die Augen des Fahrers verdeckt. Durch die Bestimmung der Kopforientierung anhand der Brillenorientierung kann die Kopforientierung dennoch robust bestimmt werden. The above-described method for Kopfposenschätzung works, however, even if the driver wears glasses or sunglasses. In this case, the driver's eyes are hidden. By determining the head orientation based on the spectacle orientation, the head orientation can nevertheless be determined robustly.
Gemäß einem Ausführungsbeispiel wird die Kopfposition oder -Orientierung mithilfe von 3-D-Daten aus einem Tiefenbild des Fahrers bestimmt. Die Brille wird aus dem Tiefenbild detektiert und segmentiert. Es wird die Orientierung der Brille bestimmt und daraus auf die Kopfposition und -Orientierung geschlossen. Die Lage der Brille gibt eine robuste Kopfposition und -Orientierung wieder. In one embodiment, the head position or orientation is determined using 3-D data from a depth image of the driver. The glasses are detected from the depth image and segmented. The orientation of the glasses is determined and from this the head position and orientation are closed. The position of the glasses reflects a robust head position and orientation.
Hierzu wird der Fahrer von einem Sensor kontinuierlich erfasst. Der Sensor nimmt sowohl 2-D-Nahinfrarotdaten als auch Tiefendaten auf. Aus den erhaltenen Daten wird die Brille detektiert und segmentiert. Diese For this purpose, the driver is continuously detected by a sensor. The sensor captures both 2-D near-infrared data and depth data. From the obtained data, the glasses are detected and segmented. These
Brillensegmentierung kann durch einfache vorhandene Algorithmen Eyeglass segmentation can be done through simple algorithms available
implementiert werden. Die Bestimmung der Position und Orientierung der Brille ist deutlich einfacher als die Bestimmung der Position und Orientierung des Kopfes, da Brillen insbesondere im Tiefenbild spezifische Merkmale wie etwa eine planare Fläche oder erkennbare Kanten aufweisen. be implemented. The determination of the position and orientation of the spectacles is much simpler than the determination of the position and orientation of the head, since spectacles, especially in the depth image, have specific features such as a planar surface or detectable edges.
Optional werden über eine vorhandene Personen-ID zusätzliche Optionally, an existing person ID becomes additional
personenspezifische Parameter berücksichtigt, etwa eine gewohnte Position oder Orientierung der Brille des Fahrers. Alternativ kann eine durchschnittliche Position oder Orientierung einer Brille genutzt werden. Mithilfe dieser Parameter wird aus der Position oder Orientierung der Brille die Position oder Orientierung des Kopfes robust bestimmt. Optional kann daraus beispielsweise eine Person-specific parameters taken into account, such as a familiar position or orientation of the driver's glasses. Alternatively, an average position or orientation of a pair of glasses can be used. Using these parameters, the position or orientation of the glasses determines the position or orientation of the head robust. Optionally, for example, a
Blickrichtung, ein Schläfrigkeitslevel oder ein Aufmerksamkeitslevel des Fahrers bestimmt werden. Viewing direction, a level of drowsiness or a level of attention of the driver are determined.
Umfasst ein Ausführungsbeispiel eine„und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist. If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Claims

Ansprüche claims
1. Verfahren (500) zum Lokalisieren eines Kopfes (108) eines A method (500) for locating a head (108) of a
Fahrzeuginsassen (106), wobei der Fahrzeuginsasse (106) eine Brille (112) trägt, wobei das Verfahren (500) folgende Schritte umfasst:  A vehicle occupant (106), wherein the vehicle occupant (106) wears spectacles (112), the method (500) comprising the steps of:
Einlesen (510) einer die Brille (112) repräsentierenden Reading in (510) one of the glasses (112) representing
Brilleninformation (315); und  Eyeglass information (315); and
Verarbeiten (520) der Brilleninformation (315), um den Kopf (108) zu lokalisieren. Processing (520) the eyewear information (315) to locate the head (108).
2. Verfahren (500) gemäß Anspruch 1, bei dem im Schritt des 2. The method (500) according to claim 1, wherein in the step of
Einlesens (510) eine Position und/oder Lage der Brille (112) als die Brilleninformation (315) eingelesen wird.  Reading in (510) a position and / or position of the spectacles (112) as the spectacle information (315) is read.
3. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (510) zumindest ein 3. The method (500) according to one of the preceding claims, wherein in the step of reading (510) at least one
fahrzeuginsassenspezifischer Parameter (335) eingelesen wird, wobei im Schritt des Verarbeitens (520) die Brilleninformation (315) unter Verwendung des fahrzeuginsassenspezifischen Parameters (335) verarbeitet wird.  vehicle occupant-specific parameter (335) is read in, wherein in the step of processing (520) the eyewear information (315) is processed using the vehicle-occupant-specific parameter (335).
4. Verfahren (500) gemäß Anspruch 2 und 3, bei dem im Schritt des 4. The method (500) according to claim 2 and 3, wherein in the step of
Einlesens (510) eine Referenzposition und/oder Referenzlage der Brille (112) als der fahrzeuginsassenspezifische Parameter (335) eingelesen wird, wobei im Schritt des Verarbeitens (520) der Kopf (108) durch Vergleichen der Position und/oder Lage der Brille (112) mit der Referenzposition und/oder Referenzlage lokalisiert wird. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Verarbeitens (520) die Brilleninformation (315) verarbeitet wird, um eine Position und/oder Lage des Kopfes (108) zu bestimmen. Read in (510) a reference position and / or reference position of the spectacles (112) as the vehicle occupant-specific parameter (335), wherein in the step of processing (520) the head (108) by comparing the position and / or position of the spectacles (112 ) is localized with the reference position and / or reference position. The method (500) according to one of the preceding claims, wherein in the step of processing (520) the eyewear information (315) is processed to determine a position and / or position of the head (108).
Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (510) eine unter Verwendung zumindest eines Bildes des Fahrzeuginsassen (106) erzeugte Information als die Brilleninformation (315) eingelesen wird. Method (500) according to one of the preceding claims, in which, in the reading-in step (510), information generated using at least one image of the vehicle occupant (106) is read in as the spectacle information (315).
Verfahren (500) gemäß Anspruch 6, mit einem Schritt des Erfassens des Bildes des Fahrzeuginsassen (106) durch eine The method (500) of claim 6 including a step of capturing the image of the vehicle occupant (106) by a vehicle
Erfassungseinrichtung (104) zum Erfassen des Fahrzeuginsassen (106).  Detecting means (104) for detecting the vehicle occupant (106).
Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (510) eine unter Verwendung zumindest eines Algorithmus erzeugte Information als die Brilleninformation (315) eingelesen wird. Method (500) according to one of the preceding claims, wherein in the reading-in step (510) an information generated using at least one algorithm is read in as the spectacle information (315).
Verfahren (500) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Erzeugens eines eine Aufmerksamkeit des The method (500) according to one of the preceding claims, comprising a step of generating an attention of
Fahrzeuginsassen (106) repräsentierenden Vehicle occupant (106) representing
Aufmerksamkeitswertes (118) und/oder eines Ansteuersignais (114) zum Ansteuern eines Fahrzeugsteuergeräts (116) abhängig von einem Ergebnis des Verarbeitens (520) der Brilleninformation (315).  Attention value (118) and / or a drive signal (114) for driving a vehicle control device (116) depending on a result of the processing (520) of the eyewear information (315).
Vorrichtung (102) mit Einheiten (310, 320, 330), die ausgebildet sind, um das Verfahren (500) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern. Device (102) comprising units (310, 320, 330) configured to execute and / or drive the method (500) according to one of the preceding claims.
Computerprogramm, das ausgebildet ist, um das Verfahren (500) gemäß einem der Ansprüche 1 bis 9 auszuführen und/oder anzusteuern. A computer program configured to execute and / or drive the method (500) according to any one of claims 1 to 9.
Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist. A machine readable storage medium storing the computer program of claim 11.
PCT/EP2017/052894 2016-03-31 2017-02-09 Method and device for localising the head of a vehicle occupant WO2017167484A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780020950.2A CN108885340A (en) 2016-03-31 2017-02-09 Method and apparatus for positioning the head of Vehicular occupant
EP17704009.4A EP3436866A1 (en) 2016-03-31 2017-02-09 Method and device for localising the head of a vehicle occupant

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016205307.8 2016-03-31
DE102016205307.8A DE102016205307A1 (en) 2016-03-31 2016-03-31 Method and device for locating a head of a vehicle occupant

Publications (1)

Publication Number Publication Date
WO2017167484A1 true WO2017167484A1 (en) 2017-10-05

Family

ID=57995222

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/052894 WO2017167484A1 (en) 2016-03-31 2017-02-09 Method and device for localising the head of a vehicle occupant

Country Status (4)

Country Link
EP (1) EP3436866A1 (en)
CN (1) CN108885340A (en)
DE (1) DE102016205307A1 (en)
WO (1) WO2017167484A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209442A (en) * 2005-01-27 2006-08-10 Nissan Motor Co Ltd Eye position detection apparatus
JP2008269182A (en) * 2007-04-18 2008-11-06 Fujitsu Ltd Image processing method, image processor, image processing system, and computer program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2987918B1 (en) * 2012-03-08 2014-12-26 Essilor Int METHOD FOR DETERMINING AT LEAST ONE POSTURE CHARACTERISTIC OF THE HEAD OF A BEARER OF A PAIR OF EYEWEAR

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209442A (en) * 2005-01-27 2006-08-10 Nissan Motor Co Ltd Eye position detection apparatus
JP2008269182A (en) * 2007-04-18 2008-11-06 Fujitsu Ltd Image processing method, image processor, image processing system, and computer program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FRANCISCO VICENTE ET AL: "Driver Gaze Tracking and Eyes Off the Road Detection System", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, vol. 16, no. 4, 1 August 2015 (2015-08-01), Piscataway, NJ, USA, pages 2014 - 2027, XP055360541, ISSN: 1524-9050, DOI: 10.1109/TITS.2015.2396031 *

Also Published As

Publication number Publication date
CN108885340A (en) 2018-11-23
DE102016205307A1 (en) 2017-10-05
EP3436866A1 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
DE112009003557B4 (en) Vehicle display device and display method
US9773179B2 (en) Vehicle operator monitoring system and method
DE102015206200A1 (en) Method and device for attention recognition of a driver
DE102014226185B4 (en) Method and line of sight recognition system for determining a line of sight of a person, and use of the line of sight recognition system in a motor vehicle
EP3268942B1 (en) Method and device for detecting a tiredness and/or sleeping state of a driver of a vehicle
WO2018072911A1 (en) Method and device for supporting a driver in deactivating a highly automated driving mode of a vehicle
EP3298474A1 (en) Method for operating a head-mounted display in a motor vehicle, and system comprising a head-mounted display
EP2986225A1 (en) Method for determining whether a vehicle occupant has noticed relevant objects in the area surrounding the vehicle
EP3392111A1 (en) Method and device for determining a visual deflection of a driver of a vehicle
DE102014206626A1 (en) Fatigue detection using data glasses (HMD)
DE102014201036A1 (en) Image-based classification of driver status and / or driver behavior
DE102015214116A1 (en) A method and apparatus for estimating a gaze direction of a vehicle occupant, method and apparatus for determining a vehicle occupant specific headmovement gain parameter, and method and apparatus for gaze estimating a vehicle occupant
DE102018201509A1 (en) Method and device for operating a display system with data glasses
DE102016223908A1 (en) Projection display system and method for operating a projection display system
DE102016215297A1 (en) Method for identifying a driver change in a motor vehicle
WO2017102188A1 (en) Method and device for controlling at least one driver interaction system
DE102020105196A1 (en) Method for operating data glasses in a motor vehicle and a system with a motor vehicle and data glasses
DE102020126953B3 (en) System and method for detecting a spatial orientation of a portable device
DE112019007195T5 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM
DE102017221317A1 (en) Method and device for operating a data glasses in a motor vehicle
DE102020131444A1 (en) SYSTEM AND METHOD FOR CORRECTING CURVE INFORMATION USING NEARBY VEHICLES AND METHOD FOR DOING THERE
WO2017167484A1 (en) Method and device for localising the head of a vehicle occupant
DE102019109491A1 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
JP6365438B2 (en) Driver state determination method and determination device therefor
DE102017212446A1 (en) Method for monitoring a display device

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017704009

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017704009

Country of ref document: EP

Effective date: 20181031

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17704009

Country of ref document: EP

Kind code of ref document: A1