DE19741393A1 - Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil - Google Patents

Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil

Info

Publication number
DE19741393A1
DE19741393A1 DE19741393A DE19741393A DE19741393A1 DE 19741393 A1 DE19741393 A1 DE 19741393A1 DE 19741393 A DE19741393 A DE 19741393A DE 19741393 A DE19741393 A DE 19741393A DE 19741393 A1 DE19741393 A1 DE 19741393A1
Authority
DE
Germany
Prior art keywords
sensor
occupant
vehicle occupant
view
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19741393A
Other languages
English (en)
Inventor
Hideyuki Tanaka
Yasukazu Sano
Taichi Tanigawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP8249842A external-priority patent/JPH1095274A/ja
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Publication of DE19741393A1 publication Critical patent/DE19741393A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Air Bags (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

Die Erfindung betrifft eine Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil.
Seit einiger Zeit werden Automobile oft mit allgemein als Airbag bezeichneten Luftsäcken ausgestattet, die als Sicherheitseinrichtung zur Vermeidung eines Stoßes oder Schocks bei einer Kollision schlagartig aufgeblasen werden.
Fig. 21 zeigt schematisch ein Beispiel eines bekannten Systems zur Steuerung des Aufblasens eines Airbags. In der Figur ist mit 30 ein Airbag bezeichnet, mit 31 beispielsweise ein Beschleu­ nigungssensor, mit 32 ein UND-Glied und mit 33 eine Treibereinrichtung. In der Schnalle eines Sicherheitsgurts ist ein Schalter vorgesehen, der zu betätigen ist, wenn ein Fahrzeuginsasse sich anschnallt oder den Sicherheitsgurt umlegt, oder es ist im Bereich des Armaturenbretts des Automobils ein Infrarotsensor vorgesehen. Das Ausgangssignal 37 des Schalters oder des Infrarotsensors dient zur Erzeugung eines die Anwesenheit des Fahrzeuginsassen anzeigenden Signals. Der Airbag 30 wird aufgeblasen, wenn das UND-Glied 32 dieses die Anwesenheit des Fahrzeuginsassen anzeigende Signal zusammen mit einem von dem Beschleunigungssensor 31 erzeugten Unfallsignal erhält und das logische Produkt (die UND-Verknüpfung) dieser beiden Signalen herstellt. Die ausgezogene Linie deutet den in einer Verkleidung angeordneten Airbag 30 an, während die gestrichelte Linie den aufgeblasenen Airbag 30 andeutet.
Bei dieser bekannten Anordnung, bei der der Airbag im Fall eines Unfalls bei Vorhandensein eines Fahrzeuginsassen auf jeden Fall aufgeblasen wird, ergibt sich ein neues Problem dadurch, daß abhängig von der Haltung des Fahrzeuginsassen durch das Aufblasen des Airbags ein weiterer Unfall verursacht werden kann.
Spezielle Beispiele dieser Situation sind in Fig. 22 gezeigt. Fig. 22(a) zeigt einen Fahrzeugin­ sassen 2, der nach vorn gelehnt auf einem Sitz sitzt, während Fig. 22(b) einen Fahrzeuginsassen 2A zeigt, bei dem es sich beispielsweise um ein kleines Kind oder ein Baby handelt, das auf einem der Fahrtrichtung des Automobils 3 entgegengesetzten Kindersitz 5 sitzt. Wenn in diesen Fällen der Airbag im Fall einer Kollision aufgeblasen wird, kann der Insasse 2 oder das kleine Kind oder Baby 2A durch das Aufblasen des Airbags einen Schlag erhalten, der möglicherweise zu einer ernsthaften Gefährdung führt. Wenn sich der Insasse in einer normalen, sicheren Position befindet, wie in Fig. 23 gezeigt tritt, wenn der Airbag aufgeblasen wird, hierdurch keine Gefährdung ein.
Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil zu schaffen derart, daß das Aufblasen eines Airbags in dem Automobil abhängig von der erfaßten Haltung so steuerbar ist, daß eine Gefährdung aufgrund des Aufblasens des Airbags vermieden wird.
Diese Aufgabe wird erfindungsgemäß durch eine Vorrichtung gemäß Patentanspruch 1 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
Ausführungsbeispiele der Erfindung werden nachfolgend im einzelnen anhand der Zeichnungen erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung zur Erläuterung eines ersten Ausführungsbeispiels der Erfindung,
Fig. 2 eine Darstellung zur Erläuterung des Prinzips zur Messung von Entfernungen,
Fig. 3 eine Darstellung zur Erläuterung des Zusammenhangs zwischen Sensorzeilen, die bei dem Ausführungsbeispiel von Fig. 1 verwendet werden, und den Gesichtsfeldern,
Fig. 4 eine Darstellung zur Erläuterung einer Korrelationsberechnung, die zur Messung von Entfernungen verwendet wird,
Fig. 5 eine Darstellung zur Erläuterung der Unterteilung eines Gesichtsfeldes in mehrere Teilgesichtsfelder,
Fig. 6 eine der Erläuterung dienende Ansicht eines Beispiels der Entfernungsverteilung eines Fahrzeuginsassen in bezug auf jedes Gesichtsfeld,
Fig. 7 eine Darstellung zur Erläuterung verschiedener Haltungen des Fahrzeuginsassen,
Fig. 8 eine schematische Darstellung, die ein zweites Ausführungsbeispiel der Erfindung zeigt,
Fig. 9 eine Ansicht zur Erläuterung des Zusammenhangs zwischen Sensorzeilen, die bei dem Ausführungsbeispiel von Fig. 8 verwendet werden, und entsprechenden Gesichtsfel­ dern,
Fig. 10 eine schematische Ansicht eines dritten Ausführungsbeispiels der Erfindung,
Fig. 11 eine schematische Ansicht eines vierten Ausführungsbeispiels der Erfindung,
Fig. 12 eine Darstellung spezieller Beispiele eines Insassensensors, der bei dem Ausführungs­ beispiel von Fig. 11 verwendet wird,
Fig. 13 eine Ansicht zur Erläuterung eines fünften Ausführungsbeispiels der Erfindung,
Fig. 14 eine schematische Ansicht eines Beispiels einer Hilfslichtquelle,
Fig. 15 eine schematische Ansicht eines anderen Beispiels einer Hilfslichtquelle,
Fig. 16 eine Ansicht zur Erläuterung eines sechsten Ausführungsbeispiels der Erfindung,
Fig. 17 eine Ansicht zur Erläuterung eines siebten Ausführungsbeispiels der Erfindung,
Fig. 18 eine Ansicht zur Erläuterung des Zusammenhangs zwischen einem Sitz, einem
Fahrzeuginsassen und Gesichtsfeldern,
Fig. 19 eine schematische Ansicht zur Erläuterung eines achten Ausführungsbeispiels der Erfindung,
Fig. 20 eine Ansicht zur Erläuterung eines Verfahrens zur Verarbeitung des Ausgangssignals des Sensors in Fig. 19,
Fig. 21 eine schematische Ansicht eines Beispiels einer bekannten Vorrichtung zum Aufblasen eines Airbags,
Fig. 22 eine Darstellung zur Erläuterung gefährlicher Haltungen von Fahrzeuginsassen, wenn ein Airbag aufgeblasen wird, und
Fig. 23 eine Darstellung eines Fahrzeuginsassen in normaler Haltung.
Fig. 1 ist eine schematische Ansicht zur Erläuterung eines ersten Ausführungsbeispiels der vorliegenden Erfindung.
Bei diesem Ausführungsbeispiel wird ein Bild eines Fahrzeuginsassen 2 von einem Insassensen­ sor 1 erzeugt, der in bezug auf den Insassen 2 vier lineare Gesichtsfelder R1, R2, R3 und R4 definiert und Ausgangssignale erzeugt, die mehrere, den jeweiligen Gesichtsfeldern entsprechen­ de Abschnitte des Insassen repräsentieren. Eine Verarbeitungseinheit 101, die eine Einrichtung 103 zur Ermittlung einer Entfernungsverteilung und eine Erkennungseinrichtung 102 enthält, verarbeitet die Ausgangssignale des Insassensensors, indem sie die Entfernungen von dem Sensor zu jeweiligen Abschnitten des Insassen innerhalb des jeweiligen linearen Gesichtsfeldes mißt und ein Muster der Entfernungsverteilung gewinnt. Die Haltung des Fahrzeuginsassen wird durch Vergleich dieses Musters mit Modellmustern bestimmt, die zuvor in der Verarbeitungsein­ heit 101 gespeichert wurden. Auf diese Weise läßt sich nicht nur feststellen, ob ein Insasse vorhanden ist, sondern auch seine/ihre Haltung ermitteln und das Aufblasen eines Airbags 104 nach Maßgabe der Präsenz und der Haltung des Insassen steuern.
Das Entfernungsmeßprinzip wird unter Bezugnahme auf Fig. 2 erläutert.
Ein Koordinatensystem mit der horizontalen Achse X und der vertikalen Achse Y liegt mit seinem Ursprung O in der Mitte zwischen zwei Abbildungslinsen 21 und 22. Auf der einem Objekt Ob abgewandten Seite der Abbildungslinsen befinden sich im Abstand der Brennweite f von diesen Lichtsensoranordnungen oder 11 bzw. 12 (nachfolgend als "Sensorzeilen" bezeichnet). Die Koordinaten des Mittelpunkts OL der Abbildungslinse 22 ergeben sich dabei zu (-B/2, 0) und diejenigen des Mittelpunkts OR der Abbildungslinse 21 zu (B/2, 0). Wenn die Koordinaten eines Punkts M an dem Objekt Ob (Subjekt) mit (-x, y) angenommen werden, ergeben sich die Koordinaten des Fußpunkts N des Lots von dem Punkt M auf die X-Achse zu (-x, 0), die Koordinaten eines Punkts L₀, an dem eine zur Y-Achse parallele Linie durch den Mittelpunkt OL die Sensorzeile 12 schneidet, zu (-B/2, -f) und die Koordinaten eines Punkts R₀, an dem eine zur Y-Achse parallele Linie durch den Mittelpunkt OR die Sensorzeile 11 schneidet, zu (B/2, -f). Es braucht nicht mehr erwähnt zu werden, daß B der Abstand zwischen den Mittelpunkten OL und OR der Abbildungslinsen 21, 22 ist.
In der beschriebenen Anordnung wird der Punkt M auf einen Abbildungspunkt L₁ der Sensorzeile 12 und einen Abbildungspunkt R₁ der Sensorzeile 11 abgebildet. Die Koordinaten der Abbil­ dungspunkte L₁ und R₁ ergeben sich zu (-aL-B/2, -f) bzw. (aR+B/2, -f). Wie in Fig. 2 dargestellt, bezeichnet aL den Abstand zwischen den Punkten L₀ und L₁, während aR den Abstand zwischen den Punkten R₀ und R₁ bezeichnet.
Da ΔMOLN und ΔOLL₁L₀ ähnliche Dreiecke sind und ΔMORN und ORR₁R₀ ebenfalls ähnliche Dreiecke sind, gelten die folgenden Gleichungen:
(-x + B/2)f = aL · y (1)
(x + B/2)f = aR · y (2)
Aus den Gleichungen (1) und (2) leitet sich die nachstehende Gleichung (3) für die Entfernung y ab:
y = B · f/(aL + aR) = B · f/p · x (3)
Hierin sind:
y: Objektentfernung
B: Basislänge des optischen Systems
f: Brennweite der Linsen
aL, aR: Bildverschiebungslänge (Entfernungsmaß)
p: Sensorrasterabstand
x: Bildverschiebungszahl.
Wenn der Abstand aL zwischen der Abbildungsposition L₁ der linken Sensorzeile 12 und dem Punkt L₀ sowie der Abstand aR zwischen der Abbildungsposition R₁ der rechten Sensorzeile 11 und dem Punkt R₀ bekannt sind, läßt sich der Abstand y zwischen dem Koordinatenursprung O und dem Objekt (bzw. dem Punkt M des Objekts) anhand von Gleichung (3) errechnen.
Fig. 3 zeigt ein Beispiel eines Insassensensors 1 zur Benutzung bei dem Ausführungsbeispiel von Fig. 1. Bei diesem Sensor 1 sind ein mehrstufiger lichtempfindlicher IC 10 (IC = Integrated Circuit bzw. integrierter Schaltkreis) und die Abbildungslinsen 21, 22 zu einer Einheit integriert. Der IC 10 umfaßt vier Paare von Sensorzeilen. Obwohl jede beliebige Anzahl von Sensorzeilen­ paaren verwendet werden kann, wird bei diesem Beispiel eine vierstufige Anordnung mit vier Sensorzeilenpaaren eingesetzt, um eine Mehrzahl linearer Gesichtsfelder R1, R2, R3, R4 zu definieren.
Zur Bestimmung der oben erwähnten relativen Verschiebung bzw. des relativen Versatzes zwischen zwei Bildern dient die folgende in der DE 41 211 145 C2 offenbarte Korrelationsbe­ rechnung.
Wie nachfolgend beschrieben, wird die Verteilung von Entfernungen, die mittels des in Fig. 3 gezeigten Sensors 1 erhalten wird, durch diskrete Werte dargestellt. Die Ausgangssignale der einzelnen Sensorelemente bzw. Fotodioden beider Sensorzeilen 11 und 12 werden beispiels­ weise in 8 Bit Digitalsignale konvertiert und in einem Speicher gespeichert.
Wie in Fig. 4 dargestellt, wird von den gespeicherten Daten ein Paar Sätze quantisierter Daten A₁-An bzw. B₁-Bn ausgewählt, die ein Paar von Teilgesichtsfeldern 111, 112, je umfassend n Sensorelemente, der Sensorzeilen 11 bzw. 12 repräsentieren. Zum Erhalt der nachfolgend als Entfernungsmaß bezeichneten Summe aL + aR für die Entfernung von der Vorderfläche des Sensors zu dem Objekt, das unter einem bestimmten Winkel zu der Vorderfläche geneigt ist (dem Winkel, der von der Y-Achse und der Linie eingeschlossen wird, die das Objekt mit den Koordinaten des Punkts M in Fig. 2 mit dem Ursprung O verbindet) werden die beiden Daten­ sätze (Teilgesichtsfelder) A₁-An und B₁-Bn in m + 1 Teildatensätze oder Abtastfenster W₁-Wm+1 mit je w (w < m) Sensordaten unterteilt, wie in Fig. 4 gezeigt. Daraus werden m + 1 Teildaten­ satzpaare C₀-Cm gebildet, deren Teildatensätze jeweils abwechselnd um ein Sensorelement (1 Bit) verschoben sind. Zur Ermittlung der Korrelation zwischen den Daten der beiden Teildaten­ sätze jedes Teildatensatzpaares Ck (0 k m), wird für jedes Teildatensatzpaar Ck eine Korrela­ tionsfunktion f(Ck) berechnet. Diese Korrelationsfunktion ist die Summe der Absolutwerte der Differenzen zwischen einander entsprechenden Datenwerten in den beiden Teildatensätzen des jeweiligen Teildatensatzpaares, z. B.
f(C₀) = |A₁-Bn-w+1| + . . . + |Aw-Bn|;
f(C₁) = |A₂-Bn-w+1| + . . . + |Aw+1-Bn|.
Die Korrelation zwischen den Daten der beiden Teildatensätze desjenigen Teildatensatzpaares Ck ist am größten, für das diese Korrelationsfunktion den kleinsten Wert ergibt. Da die Korrelation zweier Bilder von Abtastfenstern mit geringer werdendem Wert der Korrelationsfunktion zunimmt, wird das Maß x der Verschiebung von rechtem und linkem Bild auf der Grundlage des Indexes k berechnet. Auf diese Weise erhält man einen Entfernungsindex proportional zu aL + aR aus Gleichung (3).
Wie in Fig. 5 gezeigt werden die Daten jeder Sensorzeile in mehrere (1 bis n) der erwähnten Teilgesichtsfelder 111, 112 unterteilt, wobei die einzelnen Teilgesichtsfelder bzw. die sie repräsentierenden Datensätze sukzessive jeweils um 1 Bit gegeneinander verschoben sind. Die Gesichtsfeldneigungswinkel Θ werden in sehr kleinen Schritten geändert. Durch dieses Abtasten von Teilgesichtsfeldern erfaßt der Sensor kleinste Kontraste einer Objektoberfläche. FS in Fig. 5 deutet die Abtastfensterverschiebung, TGS die Teilgesichtsfeldverschiebung an.
Die Ausgabe des in Fig. 3 gezeigten Sensors 1 wird von der Verarbeitungseinheit 101 verarbei­ tet, um dadurch die Entfernung zu jedem Abschnitt (entsprechend einem jeweiligen Teilgesichts­ feld) des Insassen innerhalb des jeweiligen linearen Gesichtsfeldes zu messen.
Wenn der in Fig. 3 gezeigte Sensor 1 benutzt wird, um die Gesichtsfelder R1-R4 bezüglich des Insassen 2 gemäß Darstellung in Fig. 1 einzustellen, ergibt sich beispielsweise für die einzelnen Gesichtsfelder R1, R2, R3, R4 eine Entfernungsverteilung, wie sie in Fig. 6(a) dargestellt ist. Fig. 6(a) zeigt jeweils die Entfernung vom Sensor über der Position entlang der Sensorzeile für die Gesichtsfelder R1, R2, R3 bzw. R4. Wenn sich der Insasse dagegen gemäß Darstellung in Fig. 7(a) nach vorn lehnt, dann ergibt sich die Entfernungsverteilung, wie sie in Fig. 6(b) dargestellt ist, wo wiederum für die einzelnen Gesichtsfelder R1, R2, R3 bzw. R4 die Entfernung über der Position entlang der jeweiligen Sensorzeile dargestellt ist. Da die Entfernungen mittels der jeweiligen Sensorzeilen diskret gemessen werden, werden die gemessenen Entfernungen für jedes Gesichtsfeld gemäß Darstellung in den Figuren durch diskrete oder diskontinuierliche Werte repräsentiert.
Wenn ein Insasse auf einem Kindersitz 5 sitzt, wie in Fig. 7(b) gezeigt oder im Bereich eines Armaturenbretts steht, wie in Fig. 7(c) gezeigt, ergeben sich der jeweiligen Haltung entspre­ chende Entfernungsverteilungen. Wenn daher Daten für jede Haltung des Insassen als Modellmu­ ster vorab bereitgestellt und beispielsweise in der Verarbeitungseinheit 101 gespeichert werden, kann die Haltung des Insassen durch Vergleich eines Musters der ermittelten Entfernungsvertei­ lung mit den in der Verarbeitungseinheit gespeicherten Modellmustern ermittelt werden.
In der letzten Zeit sind manchmal Unfälle aufgetreten, wo ein Insasse einen Teil des Körpers aus dem Dach eines mit einem Schiebedach oder dergleichen versehenen Automobils herausstreckte.
Fig. 8 ist eine schematische Ansicht, die ein zweites Ausführungsbeispiel der Erfindung, das mit dem ersten Ausführungsbeispiel kombiniert werden kann, zeigt und sich auf diese Situation bezieht. Dabei ist ein den Insassensensor 1 enthaltendes Detektorsystem in der in der Figur gezeigten Anordnung vorgesehen, um eine Warnung abzugeben, bevor solch ein Unfall auftritt. Wenn der Sensor 1 mehrere Sensorzeilenpaare enthält, kann ein Sensorzeilenpaar (R4) dazu benutzt werden, die Position an einer gewissen Höhe des Automobils zu überwachen. Wenn diese Sensorzeile einen Insassen 2A gemäß Darstellung in Fig. 8 feststellt, wird entschieden, daß ein Teil des Körpers des Insassen oberhalb des Fahrzeugdachs erscheint, und eine Warnung abgegeben.
Fig. 9 zeigt ein spezielles Beispiel eines bei diesem Ausführungsbeispiel verwendeten optischen Systems. Wie bei dem Sensor 1 in Fig. 3 enthält der Sensor einen mehrstufigen lichtempfindli­ chen IC 10 mit vier Sensorzeilenpaaren, der mit Abbildungslinsen 21, 22 zu einer Einheit inte­ griert ist, sowie einen Schwenkspiegel 6 zur Umlenkung eines Bildes des Insassen beispielsweise von dem Gesichtsfeld R4 zu dem Sensor. Die Bezugszahlen 4, 4A bezeichnen Hilfslichtquellen für die Detektion in dunkler Umgebung (beispielsweise bei nächtlicher Dunkelheit).
Fig. 10 ist eine Ansicht zur Erläuterung eines dritten Ausführungsbeispiels der Erfindung. Bei diesem Ausführungsbeispiel wird ein Beispiel der Anwendung der Sensorausgabe erläutert. Fig. 10(a) zeigt den Zusammenhang zwischen einem Insassen 2 und einem Insassensensor 1, und Fig. 10(b) zeigt die Entfernungsverteilung für den Teil des Körpers des Insassen innerhalb der einzelnen Gesichtsfelder R1-R4, wenn der Insasse die in ausgezogener Linie in Fig. 10(a) gezeigter Haltung einnimmt. Fig. 10(c) zeigt zusätzlich zu der schon in Fig. 10(b) gezeigten Entfernungsverteilung die Entfernungsverteilung (gepunktet) für den Fall, daß der Insasse die in Fig. 10(a) gestrichelt gezeichnete Haltung einnimmt. In einem solchen Fall kann die Beschleuni­ gung des Insassen dadurch ermittelt werden, daß die Änderungsrate die Differenz zwischen diesen Entfernungsverteilungen pro Zeiteinheit berechnet wird. Dementsprechend ist ein Beschleunigungssensor wie er in Fig. 21 gezeigt ist, nicht länger erforderlich, womit die Kosten reduziert werden können.
Fig. 11 zeigt schematisch ein viertes Ausführungsbeispiel der Erfindung. Während der in Fig. 3 gezeigte Insassensensor 1 mit vier Sensorzeilenpaaren versehen ist, die jeweils Bilder eines Insassen von vier Gesichtsfeldern R1-R4 empfangen, umfaßt der Insassensensor 1A des Ausführungsbeispiels von Fig. 11 einen einstufigen lichtempfindlichen IC 10A mit nur einem Sensorzeilenpaar und Abbildungslinsen 21, 22 zur Aufnahme von Bildern eines Insassen von mehreren Gesichtsfeldern (vier Gesichtsfeldern R1-R4 bei diesem Ausführungsbeispiel). Um die Bilder des Insassen von mehreren Gesichtsfeldern auf das einzige Sensorzeilenpaar zu lenken, sind ein halbdurchlässiger Spiegel 7, ein Galvano-Spiegel 8 und ein Spiegelantrieb 9 vorgesehen derart, daß der Galvano-Spiegel 8 zur sukzessiven Abtastung der Gesichtsfelder mittels des Spiegelantriebs 9 drehbar ist. Mit 4 ist wieder eine Hilfslichtquelle bezeichnet. Der halbdurchläs­ sige Spiegel 7 reflektiert einen von der Hilfslichtquelle 4 emittierten Lichtstrahl zum Galvano- Spiegel 8, während er einen vom Galvano-Spiegel 8 kommenden Lichtstrahl zum lichtempfindli­ chen IC 10A hindurchläßt.
Fig. 12 zeigt ein spezielles Beispiel des bei dem Ausführungsbeispiel von Fig. 11 verwendeten Insassensensors 1A. Bei dem Beispiel von Fig. 12 sind der einstufige lichtempfindliche IC 10A und die Linsen 21, 22 in einem Gehäuse 23 angeordnet. Diese Anordnung kann jedoch zu einer Vergrößerung des Sensors und zur Erhöhung von dessen Kosten führen.
Daher können die Linsen 21, 22 integral auf einer Lichtempfangsfläche des ICs 10B aus Harz ausgebildet werden, wie in Fig. 12(b) gezeigt, um dadurch die Anzahl der Teile sowie Größe und Kosten des Sensors zu verringern. Vorzugsweise wird eine Abschirmungsbeschichtung auf unwirksamen oder ungenutzten Teilen der Linsen 21, 22 aufgebracht um zu verhindern, daß die Linsen 21, 22 Streulicht aufnehmen (Licht, das von einem in einer entgegenkommenden Spur fahrenden Automobil oder von einem hinter dem betroffenen Automobil fahrenden Automobil stammt).
Fig. 13 ist eine schematische Ansicht, die ein fünftes Ausführungsbeispiel der vorliegenden Erfindung zeigt. Bei diesem Ausführungsbeispiel ist eine Zeitsteuergeneratorschaltung 17 in Verbindung mit einer Hilfslichtquelle 4 vorgesehen und dazu ausgebildet, ein Ausgangssignal eines Beschleunigungssensors 31 als Triggersignal an die Hilfslichtquelle 4 zu geben, um letztere zur Emission von Licht hoher Intensität zu veranlassen. Wenn die Hilfslichtquelle 4 normaler­ weise Licht geringer Intensität (geringer Helligkeit) abstrahlt, damit ihre Lebensdauer nicht verkürzt wird, verringert sich infolge der geringen Lichtintensität die Genauigkeit der Entfer­ nungsmessung. Wenn daher von dem Beschleunigungssensor 31 eine bestimmte Beschleuni­ gung gleich oder größer als die von einer Fahrzeugkollision verursachte ist, wird das Ausgangs­ signal des Sensors 31 über die Zeitsteuergeneratorschaltung 17 an die Hilfslichtquelle 4 angelegt um diese zur Abgabe von Licht hoher Intensität (hoher Helligkeit) zu veranlassen und dadurch eine Verringerung der Genauigkeit bei der Entfernungsmessung zu vermeiden.
Da die oben beschriebene Hilfslichtquelle hauptsächlich bei Nacht verwendet wird, wenn nur wenig Umgebungslicht vorhanden ist, ist es wünschenswert, daß die Lichtquelle in der Lage ist, eine große Menge bzw. ein starkes Hilfslicht zu erzeugen. Zu diesem Zweck kann ein Schlitz­ platte 42 zwischen einer Leuchtdiode 41 und einer Linse 44 angeordnet werden, wie beispielhaft in Fig. 14 gezeigt, so daß das die Schlitzplatte 42 durchsetzende Licht ein streifenförmiges Muster P bildet. Die Bezugszahl 43 in Fig. 14 bezeichnet ein Gehäuse.
Bei dieser Anordnung ergibt sich jedoch eine erhöhte Teilezahl sowie Zeit und Aufwand zum Zusammenfügen dieser Teile.
Zur Lösung dieses Problems kann gemäß Darstellung in Fig. 15 die Hilfslichtquelle von einer Laserdiode 45 und einem Hologramm 46 gebildet werden. Die so aufgebaute Lichtquelle ist in der Lage Hilfslicht hoher Intensität zu erzeugen, und zwar mit erhöhtem Nutzungsgrad einer gegebenen Lichtmenge, wodurch eine verbesserte Meßgenauigkeit sichergestellt wird.
Fig. 16 ist eine schematische Ansicht, die ein sechstes Ausführungsbeispiel der vorliegenden Erfindung zeigt. Der Insassensensor 1 dieses Ausführungsbeispiels ist so aufgebaut, daß ein einstufiger lichtempfindlicher IC 10C bestehend aus einem Sensorzeilenpaar 11R, 12L und eine Linseneinheit 13 als Einheit in einem Gehäuse 15 ausgebildet sind. Dabei ist jede Sensorzeile 11, 12 des ICs 10C durch Abschirmungsplatten 14 in vier Zonen unterteilt, wie in Fig. 16(b) gezeigt, so daß mehrere (vier) Gesichtsfelder A(A1, A0, A2), B(B1, B0, B2), C(C1, C0, C2), D(D1, D0, D2) geschaffen werden, und für jede Zone der Sensorzeilen eine jeweilige Linse AL, AR, BL, BR, CL, CR, DL, DR vorgesehen ist, wie in Fig. 16(a) gezeigt. Bei dieser Anordnung können von jeder der Sensorzeile 11, 12 vier Gesichtsfelder A, B, C und D gebildet werden. Das bedeutet, daß ein einziges Sensorzeilenpaar Bilder eines Subjekts (Insassen) von vier Gesichtsfeldern A, B, C, D ohne Abtasten des Subjekts wie bei dem Ausführungsbeispiel von Fig. 11, erzeugen kann.
Zur Steuerung des Aufblasens eines Airbags ist es wünschenswert, nicht nur die Präsenz eines Fahrzeuginsassen und ihre/seine Haltung, sondern auch das Gewicht des Insassen (zur Unter­ scheidung zwischen einem Erwachsenen und einem Kind sowie zwischen einem Mann und einer Frau) zu berücksichtigen. In diesem Fall kann das Gewicht des Insassen mittels eines Gewichts­ meßsensors gemessen werden, wie etwa eines Drucksensors. Das Vorsehen solch eines Sensors wird jedoch die Kosten des Steuersystems insgesamt erhöhen. Daher wird bei dem folgenden Ausführungsbeispiel eine Mehrzahl von Paaren linearer Sensorzeilen jeweils mit einer Mehrzahl von Sensorelementen zur Messung des Gewichts eines Insassen sowie der Präsenz und der Haltung des Insassen in dem Automobil verwendet, um die Kosten des Steuersystems zu verringern.
Fig. 17 ist eine Ansicht zur Erläuterung eines Ausführungsbeispiels der Erfindung, das hinsicht­ lich des vorgenannten Punkts entwickelt wurde. Fig. 18 zeigt den Zusammenhang zwischen einem Fahrzeugsitz bzw. der Insassen und den Gesichtsfeldern, die den graphischen Darstellun­ gen in Fig. 17 entsprechen. Die Fig. 18(a), (b) und (c) sind perspektivische Ansichten eines Sitzes ohne Insassen, mit einem Insassen in normaler Haltung bzw. mit einem Insassen in vorgebeugter Haltung. Die Fig. 18(a)′, (b)′ und (c)′ zeigen jeweils die entsprechende Seitenan­ sicht.
Der Insassensensor 1 ist an einer zentralen Stelle an der Decke des Fahrzeugs angebracht, wie dies bei dem Ausführungsbeispiel von Fig. 1 der Fall ist, um horizontale Gesichtsfelder in bezug auf den Fahrzeugsitz zu definieren und Entfernungsverteilungsdaten für jedes Gesichtsfeld zu erhalten. Insbesondere ist der Sensor 1 dazu ausgelegt den Unterleibsbereich (den Teil unter der Taille des Insassen) zu erfassen, um das Gewicht des Insassen zu ermitteln.
Fig. 17(a) zeigt die Entfernungsverteilungsdaten, wenn kein Insasse in dem Sitz sitzt. Fig. 17(b) zeigt die Entfernungsverteilungsdaten, wenn der Insasse in normaler Haltung sitzt, und Fig. 17(c) zeigt die Entfernungsverteilungsdaten, wenn der Insasse eine nach vorn gelehnte Haltung einnimmt. Die Ordinate in diesen Diagrammen gibt die Entfernung von dem Sensor an, während die Abszisse die Position innerhalb des jeweiligen Gesichtsfeldes wiedergibt.
Die Präsenz und die Haltung des Fahrzeuginsassen werden auf der Grundlage der Entfernungs­ verteilungsdaten für jedes Gesichtsfeld in der oben beschriebenen Weise bestimmt. Im folgenden wird daher nur ein Verfahren zur Ermittlung des Gewichts des Passagiers erläutert.
Bei diesem Ausführungsbeispiel überwacht der Sensor 1 den Teil des Sitzes, der unterhalb der Taille des Insassen liegt, und ist somit in der Lage, den Unterleibsbereich des Insassen zu untersuchen, selbst wenn er/sie in gewissem Ausmaß nach vorn gelehnt ist, indem den Daten des Gesichtsfeldes R2 in Fig. 17(b), (c) Aufmerksamkeit geschenkt wird. Das heißt Entfer­ nungsverteilungsdaten, die einen Sitz ohne Insassen repräsentieren sind strichpunktiert darge­ stellt, während tatsächliche Entfernungsverteilungsdaten durch diskrete Punkte dargestellt sind (die die Entfernung von dem Sensor repräsentieren), wie in den Fig. 17(b), (c) gezeigt, so daß man ein Profil (bzw. einen Querschnitt) des Unterleibsbereichs des Insassen erhält. Die Statur, etwa eine große Statur oder eine kleine Statur, des Insassen läßt sich aus der Breite W des Profils ihres/seines Unterleibsbereichs ableiten und die fette, normale oder schlanke Figur (Grad der Korpulenz) läßt sich aus dieser Information bezüglich der Statur und der Dicke d des Profils des Unterleibsbereichs ableiten.
Bei dem vorliegenden Ausführungsbeispiel werden statistische Daten des Gewichts in Relation zur Breite W und Dicke d des Profils des Unterleibsbereichs vorab vorbereitet und in einem bestimmten Speicher gespeichert, so daß das Gewicht auf der Basis der gespeicherten statisti­ schen Daten bestimmt werden kann, nachdem die Breite W und die Dicke d des Profils des Unterleibsbereichs erhalten wurden. Obwohl das Gewicht nur als allgemeiner Wert repräsentiert sein mag, reicht dieses Verfahren bei praktischen Anwendungen aus, wenn zahlreiche statisti­ sche Daten gesammelt werden.
Bei dem Insassensensor von Fig. 12 wird auf die Teile der Linsen 21, 22, bei denen es sich nicht um wirksame Teile handelt, eine Abschirmungsbeschichtung aufgebracht, um Fehlfunktionen des Sensors zu verhindern, die von sogenanntem Streulicht von Automobilen auf der entgegenkom­ menden Spur oder hinter dem in Frage stehenden Automobil ausgehen. Es gibt jedoch viele Situationen, bei denen Einflüsse des Streulichts nicht ausreichend ausgeschaltet werden können. Dieses Problem kann in einer nachfolgend beschriebenen Weise gelöst werden. Fig. 19 ist eine schematische Ansicht, die ein entsprechendes weiteres Ausführungsbeispiel der vorliegenden Erfindung erläutert.
Bei diesem Ausführungsbeispiel sind ein optischer Sensor 1 und eine Hilfslichtquelle 4 in der Nähe der Decke eines Automobils 3 vorgesehen derart, daß ein Bild eines Insassen 2 von dem optischen Sensor 1 gebildet wird. Bei dieser Anordnung können Lichtstrahlen 3A, 3B von einem Automobil 35, das auf der entgegengesetzten Spur fährt, oder einem Automobil 36, das hinter dem Automobil 3 fährt, den optischen Sensor 1 als Streulicht erreichen. Gemäß einer Ausfüh­ rungsform der Erfindung wird daher die Ausgabe des optischen Sensors 1 in nachfolgend beschriebener Weise verarbeitet, wobei eine nicht dargestellte Verarbeitungseinheit verwendet wird, um die Einflüsse des Streulichts auszuschalten. Fig. 20 zeigt ein Beispiel des Verarbei­ tungsverfahrens.
Wenn das Hilfslicht zur Beleuchtung des Subjekts von der Hilfslichtquelle 4 mit der in Fig. 20(b) gezeigten Zeitsteuerung abgestrahlt wird, erzeugt der optische Sensor 1 Signale, wie sie in Fig. 20(c) gezeigt sind und die mittels der Verarbeitungseinheit gemäß Darstellung in Fig. 20(d) gemittelt werden. Dabei ist der Mittelwert von drei Signalen A1, A2, A3 durch dargestellt. Fig. 20(a) zeigt das Streulicht.
In ähnlicher Weise werden, wenn sich die Hilfslichtquelle im Ausschaltzustand befindet, drei Ausgangssignale a1, a2, a3 des optischen Sensors erhalten und von der Verarbeitungseinheit zu dem Mittelwert verarbeitet.
Danach werden die Ausgangssignale B, C und b, c des optischen Sensors erhalten, wenn sich die Hilfslichtquelle im Einschaltzustand bzw. im Ausschaltzustand befindet und durch die Verarbeitung entsprechende Mittelwerte , und , gewonnen. Dann werden die Differen­ zen zwischen den Mittelwerten und , und sowie und gebildet, wie in Fig. 20(e) gezeigt. Als Folge dieser Schritte kann Bildaufnahmeinformation frei von Streulichteinflüssen dadurch erhalten werden, daß eine Zunahme der Lichtmenge infolge des Streulichts subtrahiert wird und dadurch die Einflüsse des sich gemäß Darstellung in Fig. 20(a) mit der Zeit ändernden Streulichts eliminiert werden. Darüber hinaus können die Streulichteinflüsse wirksam selbst in dem Fall eliminiert werden, wo Störungen (siehe Spitzen D1, D2 in Fig. 20(a)) mit einer kürzeren Frequenz als der der Änderungen der Streulichtmenge auftreten.
Bei dem oben beschriebenen Ausführungsbeispiel sind das Zeitintervall zur Erfassung des Bildes bei eingeschalteter Hilfslichtquelle und das Zeitintervall zur Erfassung des Bildes bei ausgeschal­ teter Hilfslichtquelle jeweils ausreichend kürzer als die Zeit oder Dauer, innerhalb derer sich das Streulicht ändert. Während bei dem oben beschriebenen Beispiel eine Mittelwertverarbeitung durchgeführt wird, ist es auch möglich Differenzen zwischen den Summen der Vielzahl aufeinan­ derfolgender Ausgangssignale des optischen Sensors bei eingeschalteter Lichtquelle und der Summe der gleichen Anzahl von Ausgangssignalen des optischen Sensors bei ausgeschalteter Hilfslichtquelle zu verwenden oder diese Differenz zusammen mit den Mittelwerten zu verwen­ den. Genauer gesagt können verschiedene der in Fig. 20 gezeigten Werte zur Bildung der Differenzen zwischen den jeweiligen Signalen benutzt werden. Beispielsweise können die Differenzen die Form {(A + A3) - (a1 + a3)}, {(A1 + A2 + A3) - (a1 + a2 + a3)} etc. aufweisen.
Gemäß der vorliegenden Erfindung kann nicht nur die Präsenz eines Fahrzeuginsassen, sondern auch seine/ihre Haltung auf der Basis der Entfernungsverteilung eines jeweiligen Abschnitts des Insassen innerhalb eines jeweiligen Gesichtsfeldes erfaßt werden, wobei die Entfernungsvertei­ lung mittels eines einstufigen (Abtasttyp oder Typ mit mehreren Linsen) oder eines mehrstufigen Insassensensors gewonnen wird. Das Ergebnis der Erfassung kann zur Steuerung des Aufblasens eines Airbags verwendet werden, um einen Unfall zu vermeiden, der anderenfalls beim Aufblasen des Airbags auftreten könnte, wodurch eine erhöhte Sicherheit und Zuverlässigkeit sichergestellt wird. Da die Beschleunigung durch eine arithmetische Verarbeitung des Ausgangssignals des Entfernungssensors berechnet werden kann, besteht keine besondere Notwendigkeit, einen gesonderten Beschleunigungssensor vorzusehen. Darüber hinaus kann ein den Entfernungssensor enthaltendes optisches System so ausgebildet werden, daß der Sensor auch einen Insassen erfaßt, der mit einem Teil seines Körpers aus dem Automobil herausragt.
Wenn Sensorzeilen mit jeweiligen Linsen vorgesehen werden und diese Sensorzeilen und Linsen unter Verwendung eines transparenten Harzes integral ausgebildet werden, wobei eine Abschir­ mungsbeschichtung auf Abschnitte der Linsen aufgebracht wird, die keine effektiven Abschnitte sind, kann die Größe des sich ergebenden Insassensensors verringert werden, und die Erfassung von Streulicht kann vermieden werden. Darüber hinaus ist eine Hilfslichtquelle zur Beleuchtung von Gesichtsfeldern dazu ausgelegt, Beleuchtungslicht hoher Intensität (hoher Helligkeit) abzustrahlen, wenn die Beschleunigung (etwa in Folge eines Stoßes) gleich oder größer als ein vorbestimmter Wert wird, wodurch eine verbesserte Meßgenauigkeit sichergestellt wird. Diese Hilfslichtquelle kann aus einer Halbleiterlaserlichtquelle und einem Hologramm bestehen, in welchem Fall die Größe und die Kosten der Hilfslichtquelle vorteilhafter Weise verringert werden können.
Das Gewicht sowie die Präsenz und Haltung des Insassen können erfaßt werden, um eine geeignetere Steuerung zum Aufblasen eines Airbags zu ermöglichen. Da das Ausgangssignal der Sensorzeilen zur Ausschaltung der Einflüsse von Streulicht verwendet werden kann, können die Kosten des Steuersystems verringert werden und zugleich eine verbesserte Sicherheit und Zuverlässigkeit gewährleistet werden.
Es sei angemerkt, daß die voranstehend beschriebenen Ausführungsbeispiele in verschiedenster Weise miteinander kombiniert werden können.

Claims (9)

1. Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil, umfassend
wenigstens ein Paar linearer Lichtsensoranordnungen (11, 12), je bestehend aus einer Mehrzahl von Sensorelementen, zur Erzeugung einer Abbildung des Fahrzeuginsassen, und
eine Einrichtung (101, 102, 103) zur Messung der Entfernungsverteilung der Abbildung des Fahrzeuginsassen innerhalb wenigstens eines linearen Gesichtsfeldes und zur Ermittlung der Präsenz und Haltung des Fahrzeuginsassen durch Vergleich der Entfernungsverteilung mit in der Vorrichtung gespeicherten Modellmustern.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß wenigstens zwei Paare von Lichtsensoranordnungen vorgesehen sind, von denen wenigstens ein Paar ein Gesichtsfeld an einer vorbestimmten Position in einer horizontalen Richtung definiert.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Beschleuni­ gung einer Bewegung des Fahrzeuginsassen (2; 2A) auf der Basis einer Änderungsrate pro Zeiteinheit von mittels der Lichtsensoranordnungen gemessenen Entfernungswerten ermittelbar ist.
4. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zusätzlich ein Galvano-Spiegel zur sukzessiven Erzeugung einer Abbildung des Fahrzeugin­ sassen (2) in mehreren Gesichtsfeldern vorgesehen ist, um die Entfernungsverteilung in diesen Gesichtsfeldern zu messen und die Präsenz und Haltung des Fahrzeuginsassen zu erfassen.
5. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Lichtsensoranordnungen mit jeweiligen Linsen (21, 22; AL, BL, CL, DL, AR, BR, CR, DR) versehen sind, wobei die Lichtsensoranordnungen (11, 12) und die Linsen unter Verwendung von transparentem Harz einstückig ausgebildet sind, und daß eine Abschirmungsbeschichtung auf nicht wirksamen Teilen der Linsen vorgesehen ist.
6. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Hilfslichtquelle (4, 4A) zur Beleuchtung des wenigstens einen linearen Gesichtsfeldes sowie eine Einrichtung zum Einschalten der Hilfslichtquelle zur Abstrahlung von Licht hoher Intensität für die Messung der Entfernungsverteilung vorgesehen sind, wenn eine Beschleunigung gleich oder größer als ein vorbestimmter Wert auftritt.
7. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Hilfslichtquelle eine Halbleiterlaserlichtquelle (45) und ein Hologramm (46) umfaßt, wobei das Hologramm den von der Halbleiterlaserlichtquelle ausgestrahlten Laserstrahl empfängt und ein Streifenmuster erzeugt, daß sich in einer Richtung senkrecht zu dem wenigstens einen linearen Gesichtsfeld erstreckt.
8. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Lichtsensoranordnung eines Paares linearer Lichtsensoranordnungen (11, 12) in mehrere Zonen (A₁, B₁, C₁, D₁, A₂, B₂, C₂, D₂) unterteilt ist, daß für jede dieser Zonen eine Linse (AL, BL, CL, DL, AR, BR, CR, DR) vorgesehen ist, um eine Abbildung eines Teiles eines Fahrzeugin­ sassen (2) in einer zugehörigen der Zonen zu erzeugen, wobei wenigstens eine Entfernungsver­ teilung der Abbildung des Teiles des Fahrzeuginsassen gemessen wird.
9. Vorrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Einrichtung zur Berechnung der Breite (W) und Dicke (d) eines in der Entfernungsverteilung gebildeten Querschnittsabschnitts zur Darstellung eines Unterleibbereichs des Fahrzeuginsassen und zur Ermittlung des Gewichts des Fahrzeuginsassen durch Auslesen zuvor gespeicherter Information bezüglich der Breite und der Dicke.
DE19741393A 1996-09-19 1997-09-19 Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil Ceased DE19741393A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP24794296 1996-09-19
JP8249842A JPH1095274A (ja) 1996-09-20 1996-09-20 像形成用光学センサにおける迷光除去方式
JP25658696 1996-09-27
JP8309897 1997-04-01

Publications (1)

Publication Number Publication Date
DE19741393A1 true DE19741393A1 (de) 1998-03-26

Family

ID=27466797

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19741393A Ceased DE19741393A1 (de) 1996-09-19 1997-09-19 Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil

Country Status (2)

Country Link
US (1) US6027138A (de)
DE (1) DE19741393A1 (de)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19826287A1 (de) * 1998-06-12 1999-12-16 Volkswagen Ag Verfahren und Vorrichtung zur Sitzbelegungserkennung eines Fahrzeugsitzes
DE19842829A1 (de) * 1998-09-18 2000-03-23 Volkswagen Ag Fahrzeugsitz mit einer Airbageinrichtung
WO2000029262A1 (de) 1998-11-16 2000-05-25 Robert Bosch Gmbh Vorrichtung zum erfassen der belegung eines fahrzeugsitzes mittels eines stereoskopischen bildaufnahmesensors
DE19856311A1 (de) * 1998-12-07 2000-06-08 Volkswagen Ag Vorrichtung zur Überwachung der Sitzposition eines Fahrzeuginsassen
DE19855301A1 (de) * 1998-12-01 2000-06-08 Volkswagen Ag Verfahren und Meßeinrichtung zur Erkennung der Sitzposition eines Fahrzeuginsassens
EP1031471A1 (de) * 1999-02-25 2000-08-30 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erzeugen eines Positionsbildes eines Strahlung reflektierenden oder Strahlung streuenden Objekts oder Person
WO2000050268A1 (en) * 1999-02-24 2000-08-31 Siemens Automotive Corporation Vehicle occupant sensing system
DE10241993B3 (de) * 2002-09-11 2004-04-08 Siemens Ag Vorrichtung und Verfahren zum Erfassen eines Objektes oder einer Person im Innenraum eines Fahrzeugs
DE10257963A1 (de) * 2002-12-12 2004-07-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestimmung der 3D-Position von PKW-Insassen
US6870622B2 (en) 2000-03-28 2005-03-22 Siemens Aktiengesellschaft Method and device for monitoring electric components in a pick-and-place device for substrates
US7022970B2 (en) 2000-03-28 2006-04-04 Siemens Aktiengellschaft Device and method for detecting an object or a person in the passenger compartment of a vehicle
EP1741605A3 (de) * 2005-07-07 2007-09-12 Nissan Motor Company Limited Kraftfahrzeuginsassenrückhaltesystem und -verfahren
US7363123B2 (en) 1998-09-25 2008-04-22 Honda Giken Kogyo Kabushiki Kaisha Apparatus for detecting passenger occupancy of vehicle
DE19814691B4 (de) * 1997-04-01 2008-11-27 Fuji Electric Co., Ltd., Kawasaki Vorrichtung zur Erfassung der Haltung eines Insassen
WO2017116364A1 (en) * 2015-12-30 2017-07-06 Ford Otomotiv Sanayi A. S. A vehicle seat movement area measurement and sitting position detection system
DE102017223827B4 (de) 2016-12-27 2022-05-05 Yazaki Corporation Fahrerbildgebungsvorrichtung
US11485383B2 (en) * 2019-12-06 2022-11-01 Robert Bosch Gmbh System and method for detecting and mitigating an unsafe condition in a vehicle

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735506B2 (en) 1992-05-05 2004-05-11 Automotive Technologies International, Inc. Telematics system
US6442465B2 (en) 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
US6856873B2 (en) 1995-06-07 2005-02-15 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US7467809B2 (en) 1992-05-05 2008-12-23 Automotive Technologies International, Inc. Vehicular occupant characteristic determination system and method
US6507779B2 (en) 1995-06-07 2003-01-14 Automotive Technologies International, Inc. Vehicle rear seat monitor
US6553296B2 (en) 1995-06-07 2003-04-22 Automotive Technologies International, Inc. Vehicular occupant detection arrangements
US6772057B2 (en) 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US7134687B2 (en) * 1992-05-05 2006-11-14 Automotive Technologies International, Inc. Rear view mirror monitor
US6712387B1 (en) * 1992-05-05 2004-03-30 Automotive Technologies International, Inc. Method and apparatus for controlling deployment of a side airbag
US6910711B1 (en) 1992-05-05 2005-06-28 Automotive Technologies International, Inc. Method for controlling deployment of an occupant protection device
US6168198B1 (en) * 1992-05-05 2001-01-02 Automotive Technologies International, Inc. Methods and arrangements for controlling an occupant restraint device in a vehicle
US6324453B1 (en) * 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
US6513833B2 (en) 1992-05-05 2003-02-04 Automotive Technologies International, Inc. Vehicular occupant motion analysis system
US6820897B2 (en) 1992-05-05 2004-11-23 Automotive Technologies International, Inc. Vehicle object detection system and method
US6422595B1 (en) 1992-05-05 2002-07-23 Automotive Technologies International, Inc. Occupant position sensor and method and arrangement for controlling a vehicular component based on an occupant's position
US6942248B2 (en) 1992-05-05 2005-09-13 Automotive Technologies International, Inc. Occupant restraint device control system and method
US6445988B1 (en) 1997-02-06 2002-09-03 Automotive Technologies International Inc. System for determining the occupancy state of a seat in a vehicle and controlling a component based thereon
US6325414B2 (en) * 1992-05-05 2001-12-04 Automotive Technologies International Inc. Method and arrangement for controlling deployment of a side airbag
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
US6452870B1 (en) 1996-02-08 2002-09-17 Automotive Technologies International, Inc. Methods for controlling deployment of an occupant restraint in a vehicle and determining whether the occupant is a child seat
US6290255B1 (en) 1997-03-07 2001-09-18 Automotive Systems Laboratory, Inc. Occupant detection system
DE59803084D1 (de) * 1997-09-09 2002-03-21 Siemens Ag Einrichtung für den insassenschutz in einem kraftfahrzeug und verfahren zum steuern des aufblasens eines gassacks in einem kraftfahrzeug
JP3286219B2 (ja) * 1997-09-11 2002-05-27 トヨタ自動車株式会社 座席の使用状況判定装置
US6220627B1 (en) 1998-04-20 2001-04-24 Automotive Systems Lab Occupant detection system
US6302438B1 (en) * 1998-04-21 2001-10-16 Automotive Systems Laboratory, Inc. Occupant detection system
AU1410600A (en) * 1998-11-27 2000-06-19 Hamamatsu Photonics K.K. Driver sensor and apparatus for controlling air bag
US6825765B2 (en) 1998-12-30 2004-11-30 Automotive Systems Laboratory, Inc. Occupant detection system
US6563231B1 (en) 1998-12-30 2003-05-13 Automotive Systems Laboratory, Inc. Occupant sensor
US6598900B2 (en) 1999-04-19 2003-07-29 Automotive Systems Laboratory, Inc. Occupant detection system
US6402240B1 (en) * 1999-07-16 2002-06-11 Ts Tech Co., Ltd. Seat having passenger's sitting posture detecting apparatus, and harness wiring structure in seat
US6736231B2 (en) 2000-05-03 2004-05-18 Automotive Technologies International, Inc. Vehicular occupant motion detection system using radar
WO2001096147A2 (en) 2000-06-15 2001-12-20 Automotive Systems Laboratory, Inc. Occupant sensor
DE10037220B4 (de) * 2000-07-31 2008-08-21 Volkswagen Ag Verfahren und Einrichtung zur situationsgerechten Ansteuerung
JP3732398B2 (ja) * 2000-10-11 2006-01-05 三菱電機株式会社 乗員保護装置
JP3785929B2 (ja) * 2000-12-08 2006-06-14 三菱電機株式会社 乗員保護装置
US6968073B1 (en) 2001-04-24 2005-11-22 Automotive Systems Laboratory, Inc. Occupant detection system
EP1404548B1 (de) * 2001-07-10 2005-11-23 Siemens Aktiengesellschaft Überwachungssystem für einen fahrzeuginnenraum
EP1441528A4 (de) * 2001-10-10 2005-01-12 Matsushita Electric Ind Co Ltd Bildprozessor
EP1772321A3 (de) * 2002-02-02 2007-07-11 Qinetiq Limited Verfahren zur Identifizierung und Verfolgung von Objekten
US6746041B2 (en) * 2002-02-07 2004-06-08 Jo Won Chang Portable air bag system
JP2003294857A (ja) * 2002-03-29 2003-10-15 Mitsubishi Electric Corp 乗員検出装置
JP2004020247A (ja) * 2002-06-13 2004-01-22 Mitsubishi Electric Corp 乗員検出装置
DE60236461D1 (de) * 2002-07-26 2010-07-01 Mitsubishi Electric Corp Bildverarbeitungsvorrichtung
US7063382B2 (en) * 2003-06-26 2006-06-20 Lear Corporation Vehicle seat assembly having a vehicle occupant sensing system and a seat cushion insert
US7258398B2 (en) * 2003-06-26 2007-08-21 Lear Corporation Vehicle occupant sensing system having an upper slide member with an emitter interference member
US6994397B2 (en) * 2003-06-26 2006-02-07 Lear Corporation Vehicle occupant sensing system having sensor assemblies with variable blasing member
US7172244B2 (en) * 2003-06-26 2007-02-06 Lear Corporation Vehicle seat assembly having a vehicle occupant sensing system and a seat cushion insert positioned therein
US7075450B2 (en) * 2003-06-26 2006-07-11 Lear Corporation Vehicle occupant sensing system having discrete wiring
US7132953B2 (en) * 2003-06-26 2006-11-07 Lear Corporation Spring sensor assembly for a vehicle seat cushion
DE602004016185D1 (de) * 2003-10-03 2008-10-09 Automotive Systems Lab Insassenerfassungssystem
US6985077B2 (en) * 2003-12-30 2006-01-10 Lear Corporation Method of tuning a sensor array for occupancy sensing in a vehicle seat
US7059029B2 (en) 2003-12-30 2006-06-13 Lear Corporation Method of testing a sensor array incorporated into a vehicle seat
US7053759B2 (en) * 2003-12-30 2006-05-30 Lear Corporation Method of determining an equivalent value for a failed sensor in a vehicle seat having an occupancy sensing system
US6901322B1 (en) 2003-12-30 2005-05-31 Lear Corporation Method of predicting an empty seat condition in an occupancy sensing system
US7034670B2 (en) * 2003-12-30 2006-04-25 Lear Corporation Method of occupancy classification in a vehicle seat
US7185916B2 (en) * 2004-01-14 2007-03-06 Lear Corporation Vehicle seat assembly having a field effect sensor for detecting seat position
US20050179239A1 (en) * 2004-02-13 2005-08-18 Farmer Michael E. Imaging sensor placement in an airbag deployment system
US20060056657A1 (en) * 2004-02-13 2006-03-16 Joel Hooper Single image sensor positioning method and apparatus in a multiple function vehicle protection control system
US7225067B2 (en) * 2004-07-02 2007-05-29 Lear Corporation Vehicle occupant sensing system for a vehicle seat assembly and method of operating the same
US7232001B2 (en) * 2004-08-24 2007-06-19 Sam Hakki Collision air bag and flotation system
US7365278B2 (en) * 2004-10-27 2008-04-29 Lear Corporation Vehicle occupant sensing system having a contamination barrier member
US7402769B2 (en) * 2004-10-27 2008-07-22 Lear Corporation Vehicle occupant sensing system having a retention member for a biasing member
US20060097497A1 (en) * 2004-10-27 2006-05-11 Sallam Faisal K Vehicle occupant sensing system having a contamination barrier member
US7405370B2 (en) * 2004-10-27 2008-07-29 Lear Corporation Vehicle occupant sensing system having enclosed sensor assembly
US7428942B2 (en) * 2004-10-27 2008-09-30 Lear Corporation Vehicle occupant sensing system having guiding ribs
US7100980B2 (en) * 2004-10-27 2006-09-05 Lear Corporation Vehicle seat assembly having a vehicle occupant sensing system with a biasing pad
JP2007022401A (ja) * 2005-07-19 2007-02-01 Takata Corp 乗員情報検出システム、乗員拘束装置、車両
JP4898261B2 (ja) * 2006-04-04 2012-03-14 タカタ株式会社 対象物検出システム、作動装置制御システム、車両、対象物検出方法
JP2007276577A (ja) * 2006-04-04 2007-10-25 Takata Corp 対象物検出システム、作動装置制御システム、車両、対象物検出方法
US20100182425A1 (en) * 2009-01-21 2010-07-22 Mazda Motor Corporation Vehicle interior state recognition device
JP6762328B2 (ja) * 2018-02-14 2020-09-30 オートリブ ディベロップメント エービー 乗員拘束装置
US20190275974A1 (en) * 2018-03-12 2019-09-12 Lear Corporation Occupant protection systems for a vehicle seat
US10926733B2 (en) * 2018-03-12 2021-02-23 Ford Global Technologies, Llc Vehicle including inflatable assembly supported by seat
EP3945453A1 (de) * 2020-07-31 2022-02-02 Panasonic Intellectual Property Management Co., Ltd. Erfassungsvorrichtung

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4472056A (en) * 1980-07-23 1984-09-18 Hitachi, Ltd. Shape detecting apparatus
JPS5860593A (ja) * 1981-10-06 1983-04-11 株式会社日立製作所 形状検出方法と装置
US4490036A (en) * 1982-08-18 1984-12-25 Eastman Kodak Company Image sensor and rangefinder device having background subtraction with paired analog shift registers
JPS6015506A (ja) * 1983-07-08 1985-01-26 Fuji Electric Corp Res & Dev Ltd 距離測定装置
JPS6061611A (ja) * 1983-09-14 1985-04-09 Mitsubishi Electric Corp 車間距離計
US5071160A (en) * 1989-10-02 1991-12-10 Automotive Systems Laboratory, Inc. Passenger out-of-position sensor
DE4005598C2 (de) * 1990-02-22 2000-06-15 Bosch Gmbh Robert Schutzverfahren für Fahrzeuginsassen und Einrichtung zur Durchführung des Verfahrens
JP2605922B2 (ja) * 1990-04-18 1997-04-30 日産自動車株式会社 車両用安全装置
JP2676985B2 (ja) * 1990-06-26 1997-11-17 富士電機株式会社 光学器械の対象検出方式
DE4042723C2 (de) * 1990-07-20 2002-11-21 Conti Temic Microelectronic Verfahren zum Erzeugen eines Warnsignals in einem Kraftfahrzeug mit Insassenschutzvorrichtungen
DE69218402T2 (de) * 1992-04-15 1997-10-16 Hewlett Packard Co Farbbildaufnahmevorrichtung und -verfahren
US5330226A (en) * 1992-12-04 1994-07-19 Trw Vehicle Safety Systems Inc. Method and apparatus for detecting an out of position occupant
WO1994022693A1 (en) * 1993-03-31 1994-10-13 Automotive Technologies International, Inc. Vehicle occupant position and velocity sensor
US5446661A (en) * 1993-04-15 1995-08-29 Automotive Systems Laboratory, Inc. Adjustable crash discrimination system with occupant position detection
US5605348A (en) * 1993-11-03 1997-02-25 Trw Vehicle Safety Systems Inc. Method and apparatus for sensing a rearward facing child seat
US5454591A (en) * 1993-11-03 1995-10-03 Trw Vehicle Safety Systems Inc. Method and apparatus for sensing a rearward facing child restraining seat
US5626359A (en) * 1993-12-02 1997-05-06 Trw Vehicle Safety Systems, Inc. Method and apparatus for controlling an actuatable restraining device in response to discrete control zones
JPH07196006A (ja) * 1993-12-29 1995-08-01 Sensor Technol Kk 助手席用乗員検知システム
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5460405A (en) * 1994-06-28 1995-10-24 Trw Vehicle Safety Systems Inc. Apparatus for inflating an inflatable vehicle occupant restraint
JPH08169289A (ja) * 1994-12-20 1996-07-02 Mitsubishi Electric Corp 乗員監視装置、エアバッグ装置、及び車両用制御装置
US5528698A (en) * 1995-03-27 1996-06-18 Rockwell International Corporation Automotive occupant sensing device
JP2973863B2 (ja) * 1995-03-31 1999-11-08 トヨタ自動車株式会社 助手席用エアバッグ装置
US5531472A (en) * 1995-05-01 1996-07-02 Trw Vehicle Safety Systems, Inc. Apparatus and method for controlling an occupant restraint system
US5856832A (en) * 1997-01-13 1999-01-05 Hewlett-Packard Company System and method for parsing multiple sets of data

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19814691B4 (de) * 1997-04-01 2008-11-27 Fuji Electric Co., Ltd., Kawasaki Vorrichtung zur Erfassung der Haltung eines Insassen
DE19826287A1 (de) * 1998-06-12 1999-12-16 Volkswagen Ag Verfahren und Vorrichtung zur Sitzbelegungserkennung eines Fahrzeugsitzes
DE19842829A1 (de) * 1998-09-18 2000-03-23 Volkswagen Ag Fahrzeugsitz mit einer Airbageinrichtung
US7363123B2 (en) 1998-09-25 2008-04-22 Honda Giken Kogyo Kabushiki Kaisha Apparatus for detecting passenger occupancy of vehicle
DE19945645B4 (de) * 1998-09-25 2010-09-16 Honda Giken Kogyo K.K. Vorrichtung zum Erfassen der Belegung eines Fahrzeugsitzes
US6704114B1 (en) 1998-11-16 2004-03-09 Robert Bosch Gmbh Device for detecting whether a vehicle seat is occupied by means of a stereoscopic image recording sensor
WO2000029262A1 (de) 1998-11-16 2000-05-25 Robert Bosch Gmbh Vorrichtung zum erfassen der belegung eines fahrzeugsitzes mittels eines stereoskopischen bildaufnahmesensors
AU747133B2 (en) * 1998-11-16 2002-05-09 Robert Bosch Gmbh Device for detecting whether a vehicle seat is occupied by means of a stereoscopic image recording sensor
DE19855301A1 (de) * 1998-12-01 2000-06-08 Volkswagen Ag Verfahren und Meßeinrichtung zur Erkennung der Sitzposition eines Fahrzeuginsassens
DE19856311A1 (de) * 1998-12-07 2000-06-08 Volkswagen Ag Vorrichtung zur Überwachung der Sitzposition eines Fahrzeuginsassen
US6441363B1 (en) 1999-02-24 2002-08-27 Siemens Vdo Automotive Corporation Vehicle occupant sensing system
WO2000050268A1 (en) * 1999-02-24 2000-08-31 Siemens Automotive Corporation Vehicle occupant sensing system
EP1031471A1 (de) * 1999-02-25 2000-08-30 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erzeugen eines Positionsbildes eines Strahlung reflektierenden oder Strahlung streuenden Objekts oder Person
US6870622B2 (en) 2000-03-28 2005-03-22 Siemens Aktiengesellschaft Method and device for monitoring electric components in a pick-and-place device for substrates
US7022970B2 (en) 2000-03-28 2006-04-04 Siemens Aktiengellschaft Device and method for detecting an object or a person in the passenger compartment of a vehicle
US7403635B2 (en) 2002-09-11 2008-07-22 Vdo Automotive Ag Device and method for detection of an object or a person in the interior of a motor vehicle
DE10241993B3 (de) * 2002-09-11 2004-04-08 Siemens Ag Vorrichtung und Verfahren zum Erfassen eines Objektes oder einer Person im Innenraum eines Fahrzeugs
DE10257963A1 (de) * 2002-12-12 2004-07-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestimmung der 3D-Position von PKW-Insassen
EP1741605A3 (de) * 2005-07-07 2007-09-12 Nissan Motor Company Limited Kraftfahrzeuginsassenrückhaltesystem und -verfahren
US7607511B2 (en) 2005-07-07 2009-10-27 Nissan Motor Co., Ltd. Vehicle passenger-restraining device and method
WO2017116364A1 (en) * 2015-12-30 2017-07-06 Ford Otomotiv Sanayi A. S. A vehicle seat movement area measurement and sitting position detection system
DE112016006131B4 (de) 2015-12-30 2023-11-02 Ford Otomotiv Sanayi A. Ş. System zum Messen eines Fahrzeugsitzbewegungsbereichs und zur Sitzpositionserkennung
DE102017223827B4 (de) 2016-12-27 2022-05-05 Yazaki Corporation Fahrerbildgebungsvorrichtung
US11485383B2 (en) * 2019-12-06 2022-11-01 Robert Bosch Gmbh System and method for detecting and mitigating an unsafe condition in a vehicle

Also Published As

Publication number Publication date
US6027138A (en) 2000-02-22

Similar Documents

Publication Publication Date Title
DE19741393A1 (de) Vorrichtung zur Erfassung der Haltung eines Fahrzeuginsassen in einem Automobil
DE112018002494B4 (de) Erkennung und Überwachung eines Sicherheitsgurtes für Insassen
DE10034976B4 (de) Erfassungsvorrichtung zum Erfassen von Personen
EP1456823B1 (de) Vorrichtung zur berwachung von raumbereichen
DE69124726T2 (de) Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug
DE19637108B4 (de) Insassenschutzsystem für Kraftfahrzeuge sowie ein Verfahren zur kontinuierlichen Überwachung der Sitzposition des Insassen
DE60010161T2 (de) Infrarot-Belegungserkennungsvorrichtung in einem Kraftfahrzeug sowie Verfahren
DE102010039092B4 (de) Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112010002857T5 (de) Teilchenbildgeschwindigkeitsmessungsverfahren, Teilchenbildgeschwindigkeitsmessungsverfahren für einen dreidimensionalen Raum, Teilchenbildgeschwindigkeitsmessungssystem und Tracerteilchen-Erzeugungsvorrichtung in einem Teilchenbildgeschwindigkeitsmessungssystem
DE102006020192A1 (de) Vorrichtung und Verfahren zum Vorhersagen von Kollision
DE19932520A1 (de) Vorrichtung zur Steuerung eines Sicherheitssystems
WO1999004248A1 (de) Verfahren zur automatischen erkennung von oberflächenfehlern an rohkarosserien und vorrichtung zur durchführung des verfahrens
DE19945645A1 (de) Vorrichtung zum Erfassen der Belegung eines Fahrzeugsitzes
DE69401792T2 (de) Automatische Scheinwerfereinstellung zur Korrektur des Einflusses der Neigungsveränderung des Lichtbündels relativ zur Strasse
DE3642196A1 (de) Optoelektronische kollisionsschutzvorrichtung fuer fahrzeuge
EP1185442B1 (de) Vorrichtung und verfahren zur sitzüberwachung mittels einer optoelektronischen triangulationstechnik
EP1131230B1 (de) Vorrichtung zum erfassen der belegung eines fahrzeugsitzes mittels eines stereoskopischen bildaufnahmesensors
DE19814691B4 (de) Vorrichtung zur Erfassung der Haltung eines Insassen
DE10232162A1 (de) Vorrichtung zur Erfassung eines sich dynamisch bewegenden Subjekts
DE102005056665B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE10243397B4 (de) Sensorsystem zur Auslösung von Schutzmaßnahme für KfZ-Insassen und Fußgänger
DE10260855A1 (de) Verfahren zur Erkennung von Objektkonstellationen anhand von Abstandssignalen
DE102020117060B4 (de) Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
DE102018125541B4 (de) Messvorrichtung und Verfahren zur Bestimmung und Weiterleitung von Besetzungsdaten eines Fahrzeugwagons mit Fahrgästen

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G01C 300

8131 Rejection