WO2004101325A1 - Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen - Google Patents

Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen Download PDF

Info

Publication number
WO2004101325A1
WO2004101325A1 PCT/EP2004/050411 EP2004050411W WO2004101325A1 WO 2004101325 A1 WO2004101325 A1 WO 2004101325A1 EP 2004050411 W EP2004050411 W EP 2004050411W WO 2004101325 A1 WO2004101325 A1 WO 2004101325A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
current
occupant
image
movement
Prior art date
Application number
PCT/EP2004/050411
Other languages
English (en)
French (fr)
Inventor
Ludwig Ertl
Thorsten KÖHLER
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to US10/532,151 priority Critical patent/US7227626B2/en
Priority to EP04725053A priority patent/EP1530525B1/de
Priority to JP2005518189A priority patent/JP4079448B2/ja
Priority to DE502004007270T priority patent/DE502004007270D1/de
Publication of WO2004101325A1 publication Critical patent/WO2004101325A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • the present invention relates to a method for determining the current position (A, B, C, D %) of an occupant's head moving in the interior of a motor vehicle towards a dynamic switch-off zone in front of an airbag module.
  • the boundary of this zone is at a distance of approximately 10 cm from the airbag module in the direction of the occupant If its head is thrown in the direction of the airbag module, legislation states that the airbag must be switched off before the head or torso enters the COOP zone, depending on the distance between the part of the head facing the airbag (generally the face) or torso (generally the chest) to the airbag module.
  • the switchover zone should therefore be as small as possible.
  • the size of the switchover zone is typically a few centimeters.
  • non-contact systems and primarily optical systems are currently being developed. These optical systems are preferably 3D cameras that function according to the stereoscopic method, the light tuft method or TOF (Time Of Fight).
  • Such image acquisition units are typically installed at the top in the roof module between the vehicle seats (cf. also FIGS. 1 and 2 below).
  • the advantage of this mounting position is that the camera cannot be covered easily under normal circumstances, such as by occupants reading newspapers.
  • FIG. 3 illustrates this fact.
  • head position A normal sitting
  • head position B face at C00P area boundary
  • the camera looks at the back of the head - of the occupant and no longer sees the face but the hair of the occupant.
  • FIG. 4 shows that even a slightly more expansive hairstyle, assuming a medium head size, can lead to the camera still determining a position outside of COOP, even though the head has already penetrated the COOP zone.
  • the object of the invention is to provide an improved method, which avoids the above disadvantages, together with a device for the exact determination of the head position of vehicle occupants.
  • the aim of the invention is to be able to implement a switchover zone that is as small as possible, so that the occupant does not have any protection potential at a sufficient distance from the airbag module.
  • An ideal line of sight which is essentially perpendicular to an ideal direction of movement of the occupant, is characterized in that, by means of the image acquisition unit, an image scene comprising the occupant, ie an image area comprising the occupant, is recorded at least cyclically in the interior of the motor vehicle and image information of the occupant is acquired become; in the current scene, both the position of the geometric center of the head and the apparent size of the head in the direction of movement are determined, especially measured; the respective current viewing directions of the image acquisition unit are defined as a vector, which from a defined position of the image acquisition unit to the respective current position of the show geometric center of the head; the respectively current angles ⁇ between the ideal viewing direction and the current viewing directions of the image acquisition unit are calculated; the current values for angle ⁇ and
  • an apparent and ultimately real head size is determined. From the set of head sizes determined in this way, the head size that comes closest to the actual head size, and in the best case can even correspond to it, is always selected during the parallel position calculations.
  • the present invention also relates to a method for determining the exact position (A, B, C, D, %) of a head of an occupant moving in the interior of a motor vehicle towards an automatic dynamic switch-off zone in front of an airbag module, using an image detection device.
  • Unit with an ideal line of sight which runs essentially perpendicular to an ideal direction of movement of the occupant, in which an image scene comprising the occupant, ie an image area comprising the occupant, is recorded at least cyclically in the interior of the motor vehicle and captures image information of the occupant by means of the image capturing unit become; both the position of the geometric center of the head and that in the current scene apparent head size measured in the direction of movement; the respective current viewing directions of the image acquisition unit are defined as a vector, which point from a defined position of the image acquisition unit to the respective current position of the geometric center of the head; the respectively current angles ⁇ between the ideal direction of movement of the head and the current viewing directions of the image acquisition unit are calculated; the current values for angle ⁇ and apparent size of the head are stored in a memory; and with the as
  • the size of the head is always the value from the memory at which the absolute amount of the difference between the angles ⁇ and 90 ° was minimal. This method also has the advantages mentioned above.
  • the image acquisition unit is a 3D camera that works according to the stereoscopic method, the light tuft method, the time-of-flight method or another method that is equally suitable.
  • the use of a 3D camera advantageously allows, in particular with regard to the last-mentioned method according to the invention, a current position determination that is independent of ideal movement and / or viewing directions, on the basis of actual movement vectors in three-dimensional space.
  • the respectively current angle ⁇ between a current actual movement vector of the head and the current line of sight vector of the image acquisition unit is calculated.
  • This advantageously promotes the robustness of the method according to the invention even when the occupant is in a laterally oriented position, as is usually the case, for example, when looking out of the side window or the like.
  • the current motion vector can advantageously be easily calculated from the stored last and the current 3-dimensional position of the head.
  • the defined position of the image acquisition unit is preferably based on the center point of an objective opening of the image acquisition unit, in the case of the stereo camera, for example, the left objective.
  • the image capture unit continuously records images of the scene of interest, at least at least 25 images per second, in particular at least 30 images per second, preferably at least 35 images per second, which advantageously effectively means film speeds, that is to say online Consideration, to be realized.
  • the size of the memory is preferably dimensioned such that at least all measured values of a slow head movement from a first head position (A), i.e. a starting position, up to the second head position (B) of interest, namely the face position at the COOP area boundary, can be saved.
  • the memory is a ring buffer, which is initially filled and from then on the oldest value is always replaced by the current value.
  • the invention also includes a device corresponding to the method for determining the current position (A, B, C, D, %) of an occupant's head moving towards an automatic dynamic switch-off zone in front of an airbag module Immenraum a motor vehicle, relates, which is characterized by suitable means for performing the method as described above.
  • Fig. 1 is a plan view of a typical installation location
  • Fig. 2 shows the installation location of Figure 1 in a side view.
  • Fig. 4 shows the incorrect measurement based on the
  • FIG. 5 shows a first exemplary embodiment of a measurement of sacrificial positions according to the invention.
  • Fig. 6 shows a second embodiment of a measurement of Kop positions according to the invention.
  • FIG. 1 shows the typical installation location of an image acquisition unit 16 in the interior 2 of a motor vehicle 1 as seen from above.
  • FIG. 2 shows the representation of FIG. 1 in a side view.
  • An image capturing unit 16 for example a 3D camera, is usually installed in a module at the top in the roof liner 20 between the vehicle seats 3.
  • An airbag module 5 is accommodated in front of the seats 3, typically in the dashboard 4.
  • An automatic dynamic COOP switch-off zone 6 arranged in front of the airbag 5 serves to protect an occupant 8 against injuries caused by the airbag 5 if the minimum distance is undershot.
  • the advantage of The previously described installation position 20 of the camera 16 consists in the fact that this 16 cannot be covered easily under normal circumstances, for example by occupants reading newspaper 8.
  • the camera 16 detects the head 9 when it enters the COOP zone 6 the part of the head 9 facing the airbag module 5, generally the face 12, cannot see. In this case, the camera 16 looks at the back of the head of the occupant 9.
  • Fig. 3 illustrates this fact, i.e. the measurement of head positions of an occupant 8 assuming a medium head size.
  • head position A the camera 16 sees the occupant's face 12, but not the hair.
  • head position B face at C00P area boundary
  • the camera 16 looks at the back of the occupant 8 and no longer sees the face 12 but the occupant's hair 8.
  • FIG. 4 shows the incorrect measurement based on the assumption according to FIG. 3. Even a slightly protruding hairstyle, assuming an average head size, can result in the head 9 penetrating the COOP zone 6, but the camera still has one position determined outside of COOP zone 6.
  • the size 11 of the head 9 of the occupant 8 is determined or measured as precisely as possible, in particular at head position C.
  • the best position for a measurement in this regard is the point in space where the ideal direction of movement 14 of the head 9 is perpendicular to an ideal viewing direction 17 of the camera 16.
  • the measurement is preferably carried out when the geometric center 10 of the head 9 passes over this point.
  • a method, for example implemented in an algorithm, for determining the current size 11 of the head 9 can preferably look as follows:
  • the position of the geometric center 10 of the head 9 and the apparent size 11 of the head 9 in the direction of movement 14 are measured using known methods of image processing.
  • the current viewing direction 18 of the camera 16 is defined as a vector, which, for example, from a defined camera position 19, for example the center of the lens opening, in the case of a stereo camera 16.
  • a current angle ⁇ is then calculated between the ideal viewing direction 17 and the current viewing directions 18 of the 3D camera 16.
  • a current angle ⁇ is then calculated between the ideal viewing direction 17 and the current viewing directions 18 of the 3D camera 16.
  • a current angle ⁇ between the ideal direction of movement 14 of the head 9 and the current viewing directions 18 of the image acquisition unit 16 can be justified.
  • the respective current values for angle ⁇ or ⁇ and apparent head size 11 are then stored, preferably in a ring buffer (not shown), in which the oldest value is always replaced by the current value.
  • the size of the ring buffer is preferably dimensioned such that at least all measured values of a slow head movement 14 from head position A to head position B can be saved.
  • the head size is always the value from the current ring buffer at which the absolute amount of the difference between angle ⁇ and 0 ° or between angle ⁇ and 90 ° was minimal.
  • FIG. 6 shows a second exemplary embodiment of a preferred measurement of head positions according to the invention.
  • the position of the geometric center 10 of the head 9 and the apparent size 11 of the head 9 in the direction of movement 14 are again measured in the current 3D image using known methods of image processing.
  • the current viewing direction 18 of the camera 16 is defined as a vector, which, for example, from a defined camera position 19, for example the center of the lens aperture, in a stereo camera 16. B. the left lens, to the position of the geometric center 10 of the head 9 shows.
  • the last i.e. previous values for the position 10 are stored, so that an actual movement vector 15 of the head 9 can be calculated from the stored last and the current 3-dimensional head position 10.
  • the current angle ⁇ between the actual movement vector 15 of the head 9 and the current viewing directions 18 of the 3D camera 16 is then calculated.
  • the current values for angle ⁇ and apparent head size 11 are then, again preferably in one Ring buffer (not shown), saved, in which the oldest value is always replaced by the current value.
  • the head size is always the value from the current ring buffer at which the absolute amount of the difference between angle ⁇ and 90 ° was minimal, i.e. the geometry best corresponded to the "perpendicular" condition.
  • the methods described above can be stabilized by further measures.
  • the head movement 14 or 15 can be filtered by known filters and movement models (Cayman filter).
  • the above methods can advantageously also be applied analogously to the determination of the distance between the occupant torso 13 and the airbag module 5. Instead of the size 11 of the head 9, the size of the torso 13 of the occupant 8 is determined using the 3D camera 16.
  • the above methods can be further expanded by combining the different views of the person 8, which result from the different positions A, B, C, ... of the person 8 with respect to the camera 16, into a three-dimensional overall view of the person 8 , e.g. B. Frontal view A with normal sitting person plus side view C with person 8 next to camera 16 plus rear view B with bent person 8.
  • the protection potential of an occupant 8 in a motor vehicle 1 is advantageously increased. It is therefore particularly suitable for occupant protection systems in modern motor vehicles 1.

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung der aktuellen Position (A, B, C, D ... ) eines sich auf eine automatische dynamische Abschaltzone (6) vor einem Airbagmodul (5) hin bewegenden Kopfes (9) eines Insassen (8) im Innenraum (2) eines Kraftfahrzeuges (1). Dabei macht die Erfindung von dem Gedanken gebrauch, dass die beste Position für eine diesbezügliche Messung der Punkt im Raum ist, wo die ideale Bewegungsrichtung (14) des Kopfes (9) senkrecht zu einer idealen Blickrichtung (17) der Kamera (16) steht. Die Messung wird bevorzugt dann vorgenommen, wenn das geometrische Zentrum (10) des Kopfes (9) diesen Punkt überstreicht. In einer bevorzugten Ausgestaltung wird der Berechnung der tatsächliche Bewegungsvektor des Kopfes (9) zugrunde gelegt, welcher bevorzugt senkrecht zu einer aktuellen Blickrichtung (18) der Kamera (16) steht. Mit der vorliegenden Erfindung ist in vorteilhafter weise das Schutzpotential eines Insassen (8) in einem Kraftfahrzeug 1 erhöht. Sie eignet sich daher insb. für Insassenschutzsysteme moderner Kraftfahrzeuge (1).

Description

Beschreibung
Verfahren zur Bestimmung der aktuellen Kopfposition von Fahrzeuginsassen
Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung der aktuellen Position (A, B, C, D ... ) eines sich auf eine dynamische Abschaltzone vor einem Airbagmodul hin bewegenden Kopfes eines Insassen im Innenraum eines Kraftfahrzeu- ges.
Zukünftige Rückhaltesysteme in Kraftfahrzeugen werden die aktuelle Kopfposition der Fahrzeuginsassen berücksichtigen müssen, um eine optimale Schutzwirkung während der Airbagauslö- sung zu erzielen. Diese Entwicklungen werden durch Gesetzgebungsinitiativen zusätzlich getrieben, wie beispielsweise in den USA durch die Gesetzgebungsinitiative FiiVSS 208.
Wesentlicher Bestandteil derartiger Gesetzgebung ist eine au- tomatische dynamische Abschaltzone vor dem Airbagmodul (im
Folgenden C00P „Critical Out Of Position" Zone genannt) . Typischerweise befindet sich die Grenze dieser Zone in einem Abstand von etwa 10 cm vom Airbagmodul in Richtung des Insassen. Wenn der Fahrzeuginsasse während eines Unfallgeschehens (z. B. in Folge einer Vollbremsung) mit seinem Kopf in Richtung des Airbagmoduls geschleudert wird, besagt die Gesetzgebung, dass der Airbag vor dem Eindringen des Kopfes oder Torso in die COOP-Zone abgeschaltet werden muss. Entscheidend ist dabei der Abstand des dem Airbag zugewandten Teil des Kopfes (im Allgemeinen das Gesicht) bzw. Torso (im Allgemeinen die Brust) zum Airbagmodul.
Ein wesentliches Kriterium für die Optimierung dieser Funktion ist dabei die Größe der sog. U schaltzone. Auf der einen Seite muss der Airbag vor dem Eindringen des Kopfes deaktiviert werden, auf der anderen Seite soll dem Insassen bei ausreichendem Abstand zum Airbagmodul aber kein Schutzpoten tial vorenthalten werden. Somit sollte die Umschaltzone so klein wie möglich gewählt werden. Die Größe der Umschaltzone liegt typischerweise bei einigen wenigen Zentimetern. Zur Messung des Abstandes des Kopfes des Insassen zum Airbagmodul werden derzeit berührungsfreie Systeme und hier in erster Linie optische Systeme entwickelt. Bei diesen optischen Systemen handelt es sich vorzugsweise um 3D-Kameras, die nach dem stereoskopischen Verfahren, nach dem Lichtbüschelverfah- ren oder nachdem TOF (Time Of Fight) funktionieren.
Derartige Bilderfassungseinheiten werden typischerweise oben im Dachmodul zwischen den Fahrzeugsitzen eingebaut (vgl. dazu auch unten Fig. 1 und 2) . Der Vorteil dieser Einbauposition besteht darin, dass die Kamera unter normalen Umständen nicht leicht verdeckt werden kann, wie beispielsweise durch Zeitung lesende Insassen. Nachteilig jedoch ist, dass die Kamera beim Eindringen des Kopfes in die COOP-Zone den dem Airbagmodul zugewandten Teil des Kopfes, d.h. im Allgemeinen das Gesicht, nicht sehen kann. Die Bilderfassungseinheit schaut in diesem Fall auf den Hinterkopf des Insassen.
Es ist bekannt, dieses Problem durch die Annahme einer mittleren Kopfgroße zu lösen. Diese Annahme ist jedoch bei bei- spielsweise ausladender Haarpracht, einer Kopfbedeckung oder dergleichen mit nicht unerheblichen Fehlern behaftet. In diesen Fällen trifft die Annahme nicht mehr zu. Somit muss die Umschaltzone so groß gewählt werden, dass die meisten Szenarien angesichts dieser Unsicherheit abgedeckt werden.
Fig. 3 verdeutlicht diesen Sachverhalt. In Kopfposition A (normal sitzend) sieht die Kamera das Gesicht des Insassen, jedoch nicht die Haare. In Kopfposition B (Gesicht an C00P Bereichsgrenze) schaut die Kamera auf den Hinterkopf -des In- sassen und sieht nicht mehr das Gesicht sondern die Haare des Insassen. Fig. 4 zeigt, dass schon eine geringfügig ausladendere Frisur unter Annahme einer mittleren Kopfgroße dazu führen kann, dass die Kamera noch eine Position außerhalb von COOP ermittelt, obwohl der Kopf bereits in die COOP-Zone eingedrungen ist.
Aufgabe der Erfindung ist, ein verbessertes - die vorstehenden Nachteile vermeidendes - Verfahren nebst Vorrichtung zur exakten Bestimmung der Kopfposition von Fahrzeuginsassen an- zugeben. Insbesondere soll mit der Erfindung eine möglichst kleine Umschaltzone realisierbar sein, um dem Insassen bei ausreichenden Abstand zum Airbagmodul kein Schutzpotential vorzuenthalten. Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Vorteilhafte Aus- und Weiterbildungen, welche einzeln oder in Kombination miteinander eingesetzt werden können, sind Gegenstand der abhängigen Ansprüche . Ein erstes Verfahren nach der Erfindung zur Bestimmung der exakten Position (A, B, C, D ...) eines sich auf eine automatische dynamische Abschaltzone vor einem Airbagmodul hin bewegenden Kopfes eines Insassen im Innenraum eines Kraftfahrzeuges, unter Verwendung einer Bilderfassungseinheit mit ei- ner idealen Blickrichtung, die im wesentlichen senkrecht zu einer idealen Bewegungsrichtung des Insassen verläuft, zeichnet sich dadurch aus, dass mittels der Bilderfassungseinheit zumindest zyklisch eine den Insassen umfassende Bildszene, d.h. ein den Insassen umfassender Bildbereich, im Innenraum des Kraftfahrzeuges aufgenommen und Bildinformationen des Insassen erfasst werden; im jeweils aktuellen Szenenbild sowohl die Position des geometrischen Mittelpunktes des Kopfes als auch die scheinbare Größe des Kopfes in Bewegungsrichtung ermittelt, insb. vermessen, werden; die jeweils aktuellen Blickrichtungen der Bilderfassungseinheit als ein Vektor definiert werden, welche von einer definierten Position der Bilderfassungseinheit zu der jeweils aktuellen Position des geometrischen Mittelpunktes des Kopfes zeigen; die jeweils aktuellen Winkel α zwischen der idealen Blickrichtung und den aktuellen Blickrichtungen der Bilderfassungseinheit berechnet werden; die jeweils aktuellen Werte für Winkel α und schein- bare Größe des Kopfes in einem Speicher abgelegt werden; und als Größe des Kopfes immer derjenige Wert aus dem Speicher angenommen wird, bei dem der Absolutbetrag der Differenz von Winkel α und 0° minimal war.
Im Gegensatz zum Stand der Technik wird also statt einer mittleren Kopfgröße eine scheinbare und damit letztlich reale Kopfgroße ermittelt . Aus der Menge der so ermittelten Kopfgrößen wird dann während der z.B. parallel laufenden Positionsberechnungen immer diejenige Kopfgroße ausgewählt und der Berechnung zugrunde gelegt, welche der tatsächlichen Kopfgröße am nächsten kommt, ja im besten Fall dieser sogar entsprechen kann. Indem also eine sich an der Realität orientierende Kopfgröße der aktuellen Positionsbestimmung vor dem Airbagmodul zugrundegelegt wird, ist in vorteilhafter Weise eine weit aus exaktere Positionsbestimmung als im Stand der Technik vornehmbar und damit eine deutlich kleiner dimensionierte Umschaltzone realisierbar, womit dem Fahrzeuginsassen ein erhöhtes Schutzpotential bereitgestellt ist. Die vorliegende Erfindung betrifft auch ein Verfahren zur Bestimmung der exakten Position (A, B, C, D, ... ) eines sich auf eine automatische dynamische Abschaltzone vor einem Airbagmodul hin bewegenden Kopfes eines Insassen im Innenraum eines Kraftfahrzeuges, unter Verwendung einer Bllderfassungs- einheit mit einer idealen Blickrichtung, die im wesentlichen senkrecht zu einer idealen Bewegungsrichtung des Insassen verläuft, bei dem mittels der Bilderfassungseinheit zumindest zyklisch eine den Insassen umfassende Bildszene, d.h. ein den Insassen umfassender Bildbereich, im Innenraum des Kraftfahr- zeuges aufgenommen und Bildinformationen des Insassen erfasst werden; im jeweils aktuellen Szenenbild sowohl die Position des geometrischen Mittelpunktes des Kopfes als auch die scheinbare Größe des Kopfes in Bewegungsrichtung vermessen werden; die jeweils aktuellen Blickrichtungen der Bilderfas- sungseinheit als ein Vektor definiert werden, welche von einer definierten Position der Bilderfassungseinheit zu der je- weils aktuellen Position des geometrischen Mittelpunktes des Kopfes zeigen; die jeweils aktuellen Winkel ß zwischen der i- dealen Bewegungsrichtung des Kopfes und den aktuellen Blickrichtungen der Bilderfassungseinheit berechnet werden; die jeweils aktuellen Werte für Winkel ß und scheinbare Größe des Kopfes in einem Speicher abgelegt werden; und bei dem als
Größe des Kopfes immer derjenige Wert aus dem Speicher angenommen wird, bei dem der Absolutbetrag der Differenz von Winkel ß und 90° minimal war. Auch dieses Verfahren weist die vorgenannten Vorteile auf.
In einer bevorzugten Ausgestaltung der Erfindung ist die Bilderfassungseinheit eine 3D-Kamera, die nach dem stereoskopischen Verfahren, nach dem Lichtbüschelverfahren, nach dem Time-of-Flight-Verfahren oder einem anderen gleichermaßen ge- eigneten Verfahren arbeitet. Der Einsatz einer 3D-Kamera erlaubt in vorteilhafter Weise, insb. in Hinblick auf das zuletzt genannte erfindungsgemäße Verfahren, eine von idealen Bewegungs- und/oder Blickrichtungen losgelöste aktuelle Positionsbestimmung unter Zugrundelegung tatsächlicher Bewegungs- vektoren im dreidimensionalen Raum.
Anstatt von einer idealen Bewegungsrichtung des Kopfes ausgehend eine Positionsbestimmung durchzuführen wird erfindungsgemäß bevorzugt daher vorgeschlagen, dass der jeweils aktuel- le Winkel ß zwischen einem aktuellen tatsächlichen Bewegungsvektor des Kopfes und dem aktuellen Blickrichtungsvektor der Bilderfassungseinheit berechnet wird. Dies fördert in vorteilhafter Weise die Robustheit des erfindungsgemäßen Verfahrens auch bei seitlich ausgerichteten Sitzhaltungen eines In- sassen, wie dies beispielsweise beim Blick aus dem Seitenfenster oder dergleichen für gewöhnlich auftritt. Inde vorzugsweise der jeweils letzte bzw. vorhergehende Wert für die Position des geometrischen Mittelpunktes des Kopfes gespeichert wird, kann in vorteilhafter Weise der jeweils aktuelle Bewegungsvektor aus der gespeicherten letzten und der aktuellen 3-dimensionalen Position des Kopfes einfach berechnet werden.
Erfindungsgemäß bevorzugt wird der definierten Position der Bilderfassungseinheit der Mittelpunkt einer Objektivöffnung der Bilderfassungseinheit, im Fall der Stereo-Kamera beispielsweise das linke Objektiv, zugrunde gelegt.
In einer weiteren bevorzugten Ausgestaltung der Erfindung nimmt die Bilderfassungseinheit kontinuierlich Bilder der in- teressierenden Szene auf, zumindest wenigstens 25 Bilder pro Sekunde, insbesondere wenigstens 30 Bilder pro Sekunde, vorzugsweise wenigstens 35 Bilder pro Sekunde, womit in vorteilhafter Weise faktisch Filmgeschwindigkeiten, also eine online Betrachtung, realisiert werden.
Die Größe des Speichers ist vorzugsweise so dimensioniert, dass zumindest sämtliche Messwerte einer langsamen Kopfbewe- gung von einer ersten Kopfposition (A) , d.h. einer Ausgangslage, bis zur interessierenden zweiten Kopfposition (B) , näm- lieh der Gesichtsposition an der COOP-Bereichsgrenze, gespeichert werden können.
In einer zweckmäßigen Ausgestaltung der Erfindung ist der Speicher ein Ringpuffer, welcher zunächst gefüllt und ab dann immer der älteste Wert durch den aktuellen Wert ersetzt wird.
Es hat sich auch als vorteilhaft erwiesen, wenn die Aufnahmen der Kopfbewegung durch Filter wie Kaiman-Filter und/oder Bewegungsmodelle gefiltert wird.
Ausdrücklich sei darauf hingewiesen, dass mittels der Bilderfassungseinheit an Stelle der Kopfpositionsbestimmung frei lieh auch ein anderes geeignetes Körperteil eines Insassen der Positionsberechnung zugrunde gelegt werden kann wie insbesondere die Größe des Torsos des Insassen im Kraftfahrzeug.
In einer weiteren bevorzugten Ausgestaltung der Erfindung wird vorgeschlagen, verschiedene Ansichten des Insassen zu einer 3D-Gesamtansicht der Person zu kombinieren. Dies erlaubt in vorteilhafter Weise beispielsweise eine Nachbildung der Vorderseite bzw. dessen Gesichtsprofil des Insassen vor der COOP-Begrenzungsebene aus der Gesamtansicht und damit eine exaktere Berechnung dessen Abstandes zur Abschaltzone bzw. zum Airbagmodul als im Stand der Technik.
Der Vollständigkeit halber sei erwähnt, dass die Erfindung freilich auch eine zum Verfahren korrespondierende Vorrichtung zur Bestimmung der aktuellen Position (A, B, C, D, ...) eines sich auf eine automatische dynamische Abschaltzone vor einem Airbagmodul hin bewegenden Kopfes eines Insassen im Immenraum eines Kraftfahrzeuges, betrifft, welche sich durch geeignete Mittel zur Ausführung der Verfahren wie zuvor beschrieben auszeichnet.
Besondere Probleme in Zusammenhang mit der eingangs genannten Gesetzgebungsinitiative FMVSS 208 stellen bekanntermaßen die Validierbarkeit und Reproduzierbarkeit der Kopfpositionsmes- sungen im Rahmen der Zulassungsverfahren eines Kamerasystems da . Sowohl hier als auch unter Feldbedingungen kann die vorliegende Erfindung durch Verbesserung der Kopfpositionsbestimmung selbst im Zentimeterbereich entscheidende Vorteile bringen. Indem sie so das Schutzpotential eines Insassen in einem Kraftfahrzeug in vorteilhafter Weise erhöht, eignet sich die vorliegende Erfindung insb. für Insassenschutzsyste- me moderner Kraftfahrzeuge. Die Erfindung wird im Folgenden anhand verschiedener Ausführungsbeispiele und in Verbindung mit der Zeichnung beschrieben. Darin zeigen schematisch:
Fig. 1 die Draufsicht eines typischen Einbauortes einer
Bilderfassungseinheit im Innenraum eine Kraftfahr- Zeuges;
Fig. 2 den Einbauort nach Fig. 1 in einer Seitenansicht;
Fig. 3 die Vermessung von Kopfpositionen eines Insassen unter Annahme mittlerer Kopfgrößen;
Fig. 4 die fehlerhafte Vermessung bei Zugrundelegung der
Annahme nach Fig. 3 von Kopfpositionen eines Insassen mit z.B. ausladender Haarpracht;
Fig. 5 ein erstes Ausführungsbeispiel einer Vermessung von opfpositionen nach der Erfindung; und
Fig. 6 ein zweites Ausführungsbeispiel einer Vermessung von Kop Positionen nach der Erfindung.
Fig. 1 zeigt den typischen Einbauort einer Bilderfassungseinheit 16 im Innenraum 2 eine Kraftfahrzeuges 1 in der Drauf- sieht.
Fig. 2 zeigt die Darstellung nach Fig. 1 in einer Seitenansicht. Gewöhnlich ist eine Bilderfassungseinheit 16, beispielsweise eine 3D Kamera, in einem Modul oben im Dachhimmel 20 zwischen den Fahrzeugsitzen 3 eingebaut. Vor den Sitzen 3, typischerweise im Armaturenbrett 4, ist ein Airbagmodul 5 untergebracht. Eine dem Airbag 5 vorgelagerte automatische dynami- sehe COOP-Abschaltzone 6 dient dem gesetzlich vorgeschriebenen Schutz eines Insassen 8 vor Verletzungen durch den Airbag 5 bei Unterschreitung eines Mindestabstandes . Der Vorteil der zuvor beschriebenen Einbauposition 20 der Kamera 16 besteht darin, dass diese 16 unter normalen Umständen nicht leicht verdeckt werden kann, wie beispielsweise durch Zeitung lesende Insassen 8. Nachteilig ist jedoch, dass die Kamera 16 beim Eindringen des Kopfes 9 in die COOP-Zone 6 den dem Airbagmodul 5 zugewandten Teil des Kopfes 9, im Allgemeinen das Gesicht 12, nicht sehen kann. Die Kamera 16 schaut in diesem Fall auf den Hinterkopf des Insassen 9.
Es ist bekannt, dieses Problem durch die Annahme einer mittleren Kopfgroße zu lösen. Diese Annahme ist jedoch bei ausladender Haarpracht, einer Kopfbedeckung oder dergleichen mit nicht unerheblichen Fehlern behaftet. In diesen Fällen trifft die Annahme nicht mehr zu. Somit muss eine der COOP-Zone vor- gelagerte Umschaltzone 7 so groß gewählt werden, dass die meisten Szenarien angesichts dieser Unsicherheit abgedeckt werden.
Fig. 3 verdeutlicht diesen Sachverhalt, d.h. die Vermessung von Kopfpositionen eines Insassen 8 unter Annahme mittlerer Kop großen. In Kopfposition A (normal sitzend) sieht die Kamera 16 das Gesicht 12 des Insassen, jedoch nicht die Haare. In Kopfposition B (Gesicht an C00P Bereichsgrenze) schaut die Kamera 16 auf den Hinterkopf des Insassen 8 und sieht nicht mehr das Gesicht 12 sondern die Haare des Insassen 8.
Fig. 4 zeigt die fehlerhafte Vermessung bei Zugrundelegung der Annahme nach Fig. 3. Schon eine geringfügig ausladendere Frisur unter Annahme einer mittleren Kopfgröße kann dazu füh- ren, dass der Kopf 9 in die COOP-Zone 6 eindringt, die Kamera jedoch noch eine Position außerhalb der COOP-Zone 6 ermittelt.
Fig. 5 zeigt ein erstes Ausführungsbeispiel einer Vermessung von Kopfpositionen nach der Erfindung im Prinzip. Dazu wird insb. an Kopfposition C die Größe 11 des Kopfes 9 des Insassen 8 so genau wie möglich ermittelt, bzw. vermessen. Dabei macht die Erfindung von dem Gedanken gebrauch, dass die beste Position für eine diesbezügliche Messung der Punkt im Raum ist, wo die ideale Bewegungsrichtung 14 des Kopfes 9 senkrecht zu einer idealen Blickrichtung 17 der Kamera 16 steht. Die Messung wird bevorzugt dann vorgenommen, wenn das geometrische Zentrum 10 des Kopfes 9 diesen Punkt überstreicht.
Ein beispielsweise in einem Algorithmus implementiertes Verfahren zur Bestimmung der aktuellen Größe 11 des Kopfes 9 kann vorzugsweise wie folgt aussehen:
In dem jeweils aktuellen 3D-Bild wird mit bekannten Methoden der Bildverarbeitung die Position des geometrischen Mittelpunktes 10 des Kopfes 9 gemessen, sowie die scheinbare Größe 11 des Kopfes 9 in Bewegungsrichtung 14.
Die aktuelle Blickrichtung 18 der Kamera 16 wird als ein Vektor definiert, welcher von einer definierten Kameraposition 19, zum Beispiel dem Mittelpunkt der Objektivöffnung, bei ei- ner Stereokamera 16 z. B. das linkes Objektiv, zu der Position des geometrischen Mittelpunktes 10 des Kopfes 9 zeigt.
Den bekannten Methoden der linearen Algebra folgend wird dann ein aktueller Winkel α zwischen der idealen Blickrichtung 17 und den aktuellen Blickrichtungen 18 der 3D-Kamera 16 berechnet. Alternativ oder z.B. als Plausibilitätsscheck auch kumulativ kann ein aktueller Winkel ß zwischen der idealen Bewegungsrichtung 14 des Kopfes 9 und den aktuellen Blickrichtungen 18 der Bilderfassungseinheit 16 berecht werden.
Die jeweils aktuellen Werte für Winkel α bzw. ß und scheinbarer Kopfgröße 11 werden dann, vorzugsweise in einem Ringbuffer (nicht dargestellt), gespeichert, bei dem immer der älteste Wert durch den aktuellen Wert ersetzt wird. Die Größe des Ringbuffers ist vorzugsweise so dimensioniert, dass mindestens sämtliche Messwerte einer langsamen Kopfbewegung 14 von Kopfposition A bis zu Kopfposition B gespeichert werden können .
Als Kopfgroße wird erfindungsgemäß immer derjenige Wert aus dem aktuellen Ringbuffer angenommen, bei dem der Absolutbetrag der Differenz von Winkel a und 0° bzw. von Winkel ß und 90° minimal war.
Fig. 6 zeigt ein zweites Ausführungsbeispiel einer bevorzug- ten Vermessung von Kopfpositionen nach der Erfindung.
Zunächst wird wiederum im jeweils aktuellen 3D-Bild mit bekannten Methoden der Bildverarbeitung die Position des geometrischen Mittelpunktes 10 des Kopfes 9 gemessen, sowie die scheinbare Größe 11 des Kopfes 9 in Bewegungsrichtung 14.
Ebenso wird die aktuelle Blickrichtung 18 der Kamera 16 als ein Vektor definiert, welcher von einer definierten Kameraposition 19, zum Beispiel der Mittelpunkt der Objektivöffnung, bei einer Stereokamera 16 z. B. das linkes Objektiv, zu der Position des geometrischen Mittelpunktes 10 des Kopfes 9 zeigt.
In Besonderheit zu Fig. 5 werden nunmehr auch die jeweils letzten, d.h. vorhergehenden, Werte für die Position 10 gespeichert, so dass ein tatsächlicher Bewegungsvektor 15 des Kopfes 9 aus der gespeicherten letzten und der aktuellen 3- dimensionalen Kopfposition 10 berechenbar wird.
Den bekannten Methoden der linearen Algebra folgend wird dann der aktuelle Winkel ß zwischen dem tatsächlichen Bewegungs- vektor 15 des Kopfes 9 und den aktuellen Blickrichtungen 18 der 3D-Kamera 16 berechnet. Die jeweils aktuellen Werte für Winkel ß und scheinbarer Kop große 11 werden dann, wiederum vorzugsweise in einem Ringbuffer (nicht dargestellt) , gespeichert, bei dem immer der älteste Wert durch den aktuellen Wert ersetzt wird.
Als Kopfgroße wird immer derjenige Wert aus dem aktuellen Ringbuffer angenommen, bei dem der Absolutbetrag der Differenz von Winkel ß und 90° minimal war, d.h. die Geometrie am Besten der Bedingung „senkrecht" entsprach.
Erwähnt sei, dass das die zuvor beschriebenen Verfahren noch durch weitere Maßnahmen stabilisiert werden können. So kann beispielsweise die Kopfbewegung 14 bzw. 15 durch bekannte Filter und Bewegungsmodelle (Kaiman-Filter) gefiltert werden.
Die obigen Verfahren können vorteilhaft auch analog auf die Bestimmung des Abstandes des Insassen-Torso 13 zum Airbagmodul 5 angewandt werden. Dabei wird anstelle der Größe 11 des Kopfes 9 die Größe des Torso 13 des Insassen 8 mit Hilfe der 3D-Kamera 16 ermittelt. Die obigen Verfahrenen können noch weiter ausgebaut werden, indem die verschiedenen Ansichten der Person 8, die sich aufgrund der unterschiedlichen Positionen A, B, C, ... der Person 8 bezüglich der Kamera 16 ergeben, zu einer dreidimensionalen Gesamtansicht der Person 8 kombiniert werden, z. B. Frontalansicht A bei normalsitzender Person zzgl. Seitenansicht C bei Person 8 neben Kamera 16 zzgl. Rückansicht B bei vorgebeugter Person 8.
Für die Kombination der Teilansichten A, B, C, ... der Person 8 können auch sämtliche Teilansichten A, B, C, D, ... herangezogen werden, die bei der Vorwärtsbewegung der Person 8 von der 3D-Kamera 16 aufgenommen und im Ringpuffer zwischengespeichert worden sind. Wenn sich die Person nahe der COOP-Zone 6 befindet, ist für die 3D-Kamera 16 praktisch nur die Rückseite der Person sichtbar. Die nicht sichtbare Vorderseite 12 der Person 8 kann nun aus der oben ermittelten Gesamtansicht nachgebildet werden und deren Abstand zum Airbagmodul 5 genauer berechnet werden.
Mit der vorliegenden Erfindung ist in vorteilhafter Weise das Schutzpotential eines Insassen 8 in einem Kraftfahrzeug 1 erhöht. Sie eignet sich daher insb. für Insassenschutzsysteme moderner Kraftfahrzeuge 1.

Claims

Patentansprüche
1. Verfahren zur Bestimmung der aktuellen Position (A, B, C, D ...) eines sich auf eine automatische dynamische Abschaltzone (6) vor einem Airbagmodul (5) hin bewegenden Kopfes (9) eines Insassen (8) im Innenraum (2) eines Kraftfahrzeuges (1), unter Verwendung einer Bilderfassungseinheit (16) mit einer idealen Blickrichtung (17), die im wesentlichen senkrecht zu einer idealen Bewe- gungsrichtung (14) des Insassen (8) verläuft, bei dem mittels der Bilderfassungseinheit (16) zumindest zyklisch eine den Insassen (8) umfassende Bildszene im Innenraum (2) des Kraftfahrzeuges (1) aufgenommen und Bildinformationen des Insassen (8) erfasst werden; im jeweils aktuellen Szenenbild sowohl die Position des geometrischen Mittelpunktes (10) des Kopfes (9) als auch die scheinbare Größe (11) des Kopfes (9) in Bewegungsrichtung (14) ermittelt werden; - die jeweils aktuellen Blickrichtungen (18) der Bilderfassungseinheit (16) als ein Vektor definiert werden, welche von einer definierten Position (19) der Bilderfassungseinheit (16) zu der jeweils aktuellen Position des geometrischen Mittelpunktes (10) des Kopfes (9) zeigen; die jeweils aktuellen Winkel ( ) zwischen der idealen Blickrichtung (17) und den aktuellen Blickrichtungen (18) der Bilderfassungseinheit (16) berechnet werden; - die jeweils aktuellen Werte für Winkel (α) und scheinbare Größe (11) des Kopfes (9) in einem Speicher abgelegt werden; und bei dem als Größe des Kopfes (9) immer derjenige Wert aus dem Speicher angenommen wird, bei dem der Absolutbetrag der Differenz von Winkel (α) und 0° minimal war.
Verfahren zur Bestimmung der aktuellen Position (A, B, C, D, ...) eines sich auf eine automatische dynamische Abschaltzone (6) vor einem Airbagmodul (5) hin bewegenden Kopfes (9) eines Insassen (8) im Innenraum (2) eines Kraftfahrzeuges (1) , unter Verwendung einer Bilderfassungseinheit (16) mit einer idealen Blickrichtung (17), die im wesentlichen senkrecht zu einer idealen Bewegungsrichtung (14) des Insassen (8) verläuft, bei dem mittels der Bilderfassungseinheit (16) zumindest zyklisch eine den Insassen (8) umfassende Bildszene im Innenraum (2) des Kraftfahrzeuges (1) aufgenommen und Bildinformationen des Insassen (8) erfasst werden; im jeweils aktuellen Szenenbild sowohl die Position des geometrischen Mittelpunktes (10) des Kopfes (9) als auch die scheinbare Größe (11) des Kopfes (9) in Bewegungsrichtung (14) ermittelt werden; die jeweils aktuellen Blickrichtungen (18) der Bilderfassungseinheit (16) als ein Vektor definiert werden, welche von einer definierten Position (19) der Bilderfassungseinheit (16) zu der jeweils aktuellen Position des geometrischen Mittelpunktes (10) des Kopfes (9) zeigen; die jeweils aktuellen Winkel (ß) zwischen der idea- len Bewegungsrichtung (14) des Kopfes (9) und den aktuellen Blickrichtungen (18) der Bilderfassungs- einheit (16) berechnet werden; die jeweils aktuellen Werte für Winkel (ß) und scheinbare Größe (11) des Kopfes (9) in einem Spei- eher abgelegt werden; und bei dem als Größe des Kopfes (9) immer derjenige Wert aus dem Speicher angenommen wird, bei dem der Absolutbetrag der Differenz von Winkel (ß) und 90° minimal war.
3. Verfahren nach Anspruch 1 oder 2, bei dem die Bilderfas- sungseinheit (16) eine 3D-Kamera ist, die nach dem stereoskopischen Verfahren, nach dem Lichtbuschelverfahren, nach dem Time-of-Flight-Verfahren oder einem anderen gleichermaßen geeigneten Verfahren arbeite .
4. Verfahren nach Anspruch 2 und 3, bei dem, anstatt von der idealen Bewegungsrichtung (14) des Kopfes (9) ausgehend, - die jeweils aktuellen Winkel (ß) zwischen aktuellen tatsachlichen Bewegungsvektoren (15) des Kopfes (9) und den aktuellen Blickrichtungen (18) der Bilderfassungseinheit (16) berechnet werden.
5. Verfahren nach Anspruch 4, bei dem der jeweils letzte Wert für die Position des geometrischen Mittelpunktes (10) des Kopfes (9) gespeichert und der jeweils aktuelle Bewegungsvektor (15) aus der gespeicherten letzten und der aktuellen 3-dimensionalen Position des Kopfes (9) berechnet werden.
6. Verfahren nach einem der vorherigen Ansprüche, bei dem der definierten Position (19) der Bilderfassungseinheit (16) der Mittelpunkt einer objektivoffnung der Bilder- fassungseinheit (16) , im Fall der Stereo-Kamera beispielsweise das linke Objektiv, zugrunde gelegt wird.
7. Verfahren nach einem der vorherigen Ansprüche, bei dem die Bilderfassungseinheit (16) kontinuierlich Bilder der interessierenden Szene aufnimmt, zumindest wenigstens 25 Bilder pro Sekunde, insbesondere wenigstens 30 Bilder pro Sekunde, vorzugsweise wenigstens 35 Bilder pro Sekunde .
8. Verfahren nach einem der vorherigen Ansprüche, bei dem die Große des Speichers so dimensioniert ist, dass zumindest samtliche Messwerte einer langsamen Kopfbewegung von einer ersten Kopfposition (A) bis zur interessierenden zweiten Kopfposition (B) gespeichert werden können.
9. Verfahren nach einem der vorherigen Ansprüche, bei dem der Speicher ein Ringpuffer ist, welcher zunächst gefüllt und ab dann immer der älteste Wert durch den aktuellen Wert ersetzt wird.
10. Verfahren nach einem1 der vorherigen Ansprüche, bei dem die Aufnahmen der Kopfbewegung (14 bzw. 15) durch Filter und/oder Bewegungsmodelle gefiltert wird.
11. Verfahren nach einem der vorherigen Ansprüche, bei dem anstelle der Größe (11) des Kopfes (9) die Größe des Torsos (13) oder die Größe eines anderen Körperteils des Insassen (8) im Kraftfahrzeug (1) mit der Bilderfassungseinheit (16) ermittelt wird.
12. Verfahren nach einem der vorherigen Ansprüche, bei dem verschiedene Ansichten des Insassen (8) zu einer 3D-
Gesamtansicht der Person (8) kombiniert werden.
13. Verfahren nach Anspruch 11, bei dem die Vorderseite des Insassen (8), insbesondere dessen Gesichtsprofil (12), aus der Gesamtansicht nachgebildet und deren Abstand zur Umschaltzone (6) bzw. zum Airbagmodul (5) berechnet wird.
14. Vorrichtung zur Bestimmung der aktuellen Position (A, B, C, D, ...) eines sich auf eine automatische dynamische
Abschaltzone (6) vor einem Airbagmodul (5) hin bewegenden Kopfes (9) eines Insassen (8) im Immenraum (2) eines Kraftfahrzeuges (1), gekennzeichnet durch geeignete Mittel zur Ausführung der Verfahren nach einem der vorheri- gen Ansprüche.
PCT/EP2004/050411 2003-05-13 2004-04-01 Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen WO2004101325A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/532,151 US7227626B2 (en) 2003-05-13 2004-04-01 Method for determining the current position of the heads of vehicle occupants
EP04725053A EP1530525B1 (de) 2003-05-13 2004-04-01 Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen
JP2005518189A JP4079448B2 (ja) 2003-05-13 2004-04-01 乗員の頭部の現在位置を求める方法および装置
DE502004007270T DE502004007270D1 (de) 2003-05-13 2004-04-01 Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10321506.9 2003-05-13
DE10321506A DE10321506B4 (de) 2003-05-13 2003-05-13 Verfahren zur Bestimmung der aktuellen Kopfposition von Fahrzeuginsassen

Publications (1)

Publication Number Publication Date
WO2004101325A1 true WO2004101325A1 (de) 2004-11-25

Family

ID=33440771

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/050411 WO2004101325A1 (de) 2003-05-13 2004-04-01 Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen

Country Status (7)

Country Link
US (1) US7227626B2 (de)
EP (1) EP1530525B1 (de)
JP (1) JP4079448B2 (de)
KR (1) KR100782629B1 (de)
CN (1) CN100347009C (de)
DE (2) DE10321506B4 (de)
WO (1) WO2004101325A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007014966A1 (de) 2005-08-04 2007-02-08 Gesellschaft zur Förderung angewandter Informatik e.V. Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
EP1800964A1 (de) * 2005-12-23 2007-06-27 Delphi Technologies, Inc. Verfahren zur Tiefenschätzung von einer Einzelkamera aus
DE102013217947A1 (de) 2013-09-09 2015-03-26 Robert Bosch Gmbh Verfahren, Vorrichtung und System zum Betreiben von Personenschutzmitteln
CN104527562A (zh) * 2014-12-19 2015-04-22 浙江吉利汽车研究院有限公司 一种车辆约束系统的设计开发方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100779739B1 (ko) * 2006-06-01 2007-11-26 인제대학교 산학협력단 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차검출 및 추적 방법
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
DE102013102528B4 (de) 2013-03-13 2022-04-21 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Bestimmung einer Verbauposition einer Innenraumsensorik in einem Fahrzeug
DE102013005039B4 (de) * 2013-03-25 2018-05-09 Jenoptik Optical Systems Gmbh Vorrichtung zum Steuern eines Airbagmoduls
DE102013019191B4 (de) 2013-11-15 2016-07-14 Audi Ag Verfahren und Vorrichtung zum Betreiben wenigstens eines Assistenzsystems eines Kraftwagens
DE102013021812A1 (de) 2013-12-20 2015-06-25 Audi Ag Verfahren und System zum Betreiben eines Kraftwagens
JP6547563B2 (ja) 2015-09-30 2019-07-24 富士通株式会社 検出プログラム、検出方法及び検出装置
US10676058B2 (en) 2016-07-06 2020-06-09 Ford Global Technologies, Llc Vehicle dashboard safety features
DE102019202302B3 (de) 2019-02-20 2020-01-02 Zf Friedrichshafen Ag Verfahren, Steuergerät und Computerprogrammprodukt zum Bestimmen einer Kopforientierung und/oder -position eines Fahrzeuginsassen
EP4099214A1 (de) 2021-06-04 2022-12-07 Aptiv Technologies Limited Verfahren und system zur überwachung eines insassen eines fahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030001368A1 (en) * 1992-05-05 2003-01-02 Breed David S. Method and apparatus for controlling an airbag
EP1278159A2 (de) * 2001-07-10 2003-01-22 Eaton Corporation Bildverarbeitungssystem zur dynamischen Unterdrückung von Airbags unter Benutzung von Wahrscheinlichkeiten multipler Modelle zur Ableitung dreidimensionaler Information
US20030081814A1 (en) * 2001-10-30 2003-05-01 Akira Takagi Apparatus for protecting occupant in vehicle
US20030079929A1 (en) * 2001-10-31 2003-05-01 Akira Takagi Apparatus for detecting head of occupant in vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4042721C2 (de) * 1990-07-20 2002-11-21 Conti Temic Microelectronic Verfahren zum Auslösen von Insassenschutzvorrichtungen
DE19752145A1 (de) * 1997-11-25 1999-05-27 Hipp Johann F Vorrichtung zur Überwachung von Fahrzeuginnenräumen
US6094610A (en) * 1998-03-30 2000-07-25 Trw Vehicle Safety Systems Inc. Characterizing a proximately located occupant body portion with a sensor matrix
DE19906418B4 (de) * 1999-02-16 2013-09-26 Bayerische Motoren Werke Aktiengesellschaft Insassenschutzvorrichtung für Kraftfahrzeuge
DE19926845A1 (de) * 1999-04-09 2000-10-19 Steinel Gmbh & Co Kg Sicherheitsvorrichtung und Verfahren zum Betreiben einer Sicherheitsvorrichtung
DE19932520A1 (de) * 1999-07-12 2001-02-01 Hirschmann Austria Gmbh Rankwe Vorrichtung zur Steuerung eines Sicherheitssystems
JP3819292B2 (ja) * 2001-12-25 2006-09-06 三菱電機株式会社 人物状態判別装置
JP4355341B2 (ja) * 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030001368A1 (en) * 1992-05-05 2003-01-02 Breed David S. Method and apparatus for controlling an airbag
EP1278159A2 (de) * 2001-07-10 2003-01-22 Eaton Corporation Bildverarbeitungssystem zur dynamischen Unterdrückung von Airbags unter Benutzung von Wahrscheinlichkeiten multipler Modelle zur Ableitung dreidimensionaler Information
US20030081814A1 (en) * 2001-10-30 2003-05-01 Akira Takagi Apparatus for protecting occupant in vehicle
US20030079929A1 (en) * 2001-10-31 2003-05-01 Akira Takagi Apparatus for detecting head of occupant in vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DEVY M ET AL: "Detection and classification of passenger seat occupancy using stereovision", INTELLIGENT VEHICLES SYMPOSIUM, 2000. IV 2000. PROCEEDINGS OF THE IEEE DEARBORN, MI, USA 3-5 OCT. 2000, PISCATAWAY, NJ, USA,IEEE, US, 3 October 2000 (2000-10-03), pages 714 - 719, XP010529022, ISBN: 0-7803-6363-9 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007014966A1 (de) 2005-08-04 2007-02-08 Gesellschaft zur Förderung angewandter Informatik e.V. Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
US7711507B2 (en) 2005-08-04 2010-05-04 Gesellschaft Zur Foerderung Angewandter Informatik E.V. Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium
EP1800964A1 (de) * 2005-12-23 2007-06-27 Delphi Technologies, Inc. Verfahren zur Tiefenschätzung von einer Einzelkamera aus
DE102013217947A1 (de) 2013-09-09 2015-03-26 Robert Bosch Gmbh Verfahren, Vorrichtung und System zum Betreiben von Personenschutzmitteln
CN104527562A (zh) * 2014-12-19 2015-04-22 浙江吉利汽车研究院有限公司 一种车辆约束系统的设计开发方法

Also Published As

Publication number Publication date
CN1701012A (zh) 2005-11-23
US20060023918A1 (en) 2006-02-02
US7227626B2 (en) 2007-06-05
KR20060010710A (ko) 2006-02-02
JP2006511826A (ja) 2006-04-06
EP1530525B1 (de) 2008-05-28
JP4079448B2 (ja) 2008-04-23
CN100347009C (zh) 2007-11-07
DE10321506A1 (de) 2004-12-16
KR100782629B1 (ko) 2007-12-06
DE10321506B4 (de) 2006-10-05
EP1530525A1 (de) 2005-05-18
DE502004007270D1 (de) 2008-07-10

Similar Documents

Publication Publication Date Title
EP1530525B1 (de) Verfahren zur bestimmung der aktuellen kopfposition von fahrzeuginsassen
EP3157786B1 (de) Fahrzeug mit umfeldüberwachungseinrichtung sowie verfahren zum betreiben einer solchen überwachungseinrichtung
EP3537384A2 (de) Visuelles surround-view-system zur überwachung des fahrzeuginneren
EP2637897B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung, kamerasystem und kraftfahrzeug mit einem kamerasystem
EP2934947A1 (de) Kraftfahrzeug mit kamera-monitor-system
EP1404547B1 (de) Verfahren und vorrichtung zur optischen erkennung des öffnungszustandes einer fahrzeugtür
DE102017122964A1 (de) Fahrzeugspiegelsystem
DE112015004722T5 (de) Auffahrunfallschutz
WO2000065538A1 (de) Verfahren und vorrichtung zur ermittlung der position eines objektes innerhalb einer szene
DE102016008231A1 (de) Verfahren und Vorrichtung zur Erzeugung einer virtuellen Aussicht aus einem Fahrzeug
EP3014239A1 (de) Verfahren zum überprüfen der einstellung eines scheinwerfers in einem kraftfahrzeug
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
WO2009077445A1 (de) Verfahren und vorrichtung zum optischen erfassen einer fahrzeugumgebung
WO2004052691A1 (de) Verfahren und vorrichtung zur bestimmung der 3d-position von pkw-insassen
DE10303013A1 (de) Fahrzeug mit einer katadioptrischen Kamera
WO2005014343A1 (de) Beschleunigungsmessvorrichtung für ein insassenschutzsystem und verfahren zur auslösung eines insassenschutzsystems
DE10212902A1 (de) Verfahren und Anordnung zur Ansteuerung von insbesondere reversibel ansteuerbaren Rückhaltemitteln
DE102016217037A1 (de) Verfahren zum Betreiben einer Anzeigeeinrichtung eines Kraftfahrzeugs mit einer digitalen Anzeigefläche und Kraftfahrzeug
DE102012015282A1 (de) Verfahren zur Detektion eines verdeckten Zustands einer Bilderfassungseinrichtung eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP2639109B1 (de) Heckbereichssichtsystem
DE102019213607A1 (de) 3D-Darstellung in digitalem Fahrzeugrückspiegel
DE102020215651A1 (de) Fahrzeugsichtsystem
DE102014218027A1 (de) Vorrichtungen zur Bilderfassung im Bereich eines Kraftfahrzeugs
DE102016223961A1 (de) Verfahren und Auslöseschaltung zum Auslösen eines in einem Lenkrad eines Kraftfahrzeugs angeordneten Airbags
WO2004026637A1 (de) Vorrichtung und verfahren zum erfassen eines objektes oder einer person im innenraum eines fahrzeugs

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004725053

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2006023918

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 1020057006813

Country of ref document: KR

Ref document number: 20048010972

Country of ref document: CN

Ref document number: 2005518189

Country of ref document: JP

Ref document number: 10532151

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004725053

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057006813

Country of ref document: KR

Ref document number: 10532151

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2004725053

Country of ref document: EP