DE69809334T2 - Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug - Google Patents

Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug

Info

Publication number
DE69809334T2
DE69809334T2 DE69809334T DE69809334T DE69809334T2 DE 69809334 T2 DE69809334 T2 DE 69809334T2 DE 69809334 T DE69809334 T DE 69809334T DE 69809334 T DE69809334 T DE 69809334T DE 69809334 T2 DE69809334 T2 DE 69809334T2
Authority
DE
Germany
Prior art keywords
detection system
object detection
image
seat
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69809334T
Other languages
English (en)
Other versions
DE69809334D1 (de
Inventor
William Joseph Janutka
Sabrina Elizabeth Kemeny
Larry Matthies
Marc Raymond Simon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eaton Corp
Original Assignee
Eaton Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25360396&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69809334(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Eaton Corp filed Critical Eaton Corp
Application granted granted Critical
Publication of DE69809334D1 publication Critical patent/DE69809334D1/de
Publication of DE69809334T2 publication Critical patent/DE69809334T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • B60N2/0021Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement
    • B60N2/0024Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat
    • B60N2/0029Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat for detecting the motion of the occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01556Child-seat detection systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/10Field detection presence sensors
    • B60N2210/16Electromagnetic waves
    • B60N2210/22Optical; Photoelectric; Lidar [Light Detection and Ranging]
    • B60N2210/24Cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01315Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring occupant displacement

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Air Bags (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung betrifft eine Vorrichtung zum Erfassen der Anwesenheit oder Abwesenheit von Objekten und insbesondere die Erfassung, ob auf einem Sitzplatz eines Kraftfahrzeugs ein Insasse anwesend ist.
  • Als Sicherheitseinrichtung verfügen moderne Kraftfahrzeuge über integrierte Airbags, die jeweils vor dem Fahrer in dem Lenkrad und vor einem auf dem Vordersitz sitzenden Beifahrer in dem Armaturenbrett eingebaut sind. Zusätzliche Airbags werden gegenwärtig für die Türen seitlich der Fahrzeuginsassen vorgeschlagen. Eine während eines Unfalls auftretende starke Verzögerung des Kraftfahrzeugs wird erfasst, und ein Aufblasen der Airbags wird aktiviert, die daraufhin die Fahrzeuginsassen in einem Luftkissen auffangen.
  • Zwar konnten Airbags die Schwere von Verletzungen bei Kraftfahrzeugzusammenstößen in hohem Maße reduzieren, jedoch kommt es gelegentlich aufgrund der großen Geschwindigkeit, mit der das Aufblasen eines Airbags erfolgen muss, zu Verletzungen des Beifahrers und/oder des Fahrers. Insbesondere kann der Airbag ein auf dem Vordersitz des Fahrzeug sitzendes kleines Kind oder Baby ernsthaft verletzen.
  • Um im Falle eines Unfalls Kleinkinder und Säuglinge nicht der beim Aufblasen entstehenden Kraft eines sich entfaltenden Airbags auszusetzen, wird gegenwärtig daher empfohlen, diese auf den Rücksitzen des Fahrzeugs zu beför dern. Allerdings wird dies nicht der Situation gerecht, bei der diese Empfehlung missachtet wird und ein Kind auf dem Vordersitz des Fahrzeugs mitfährt. Außerdem bleibt bei Fahrzeugen für nur zwei Personen, beispielsweise in Sportfahrzeugen und Lastfahrzeugen, keine andere Wahl, als ein Kind oder Baby auf einen Sitz zu setzen, gegenüber dem ein Airbag angebracht ist. Für die zuletzt erwähnte Situation wurde vorgeschlagen, einen manuellen Deaktivierungsschalter vorzusehen, der den vor dem Kind befindlichen Airbag außer Kraft setzt. Allerdings muss dieser Schalter nicht nur bei jeder Beförderung eines Kindes manuell betätigt werden, vielmehr muss sich der Fahrzeugführer auch daran erinnern, den Airbag im Falle von erwachsenen Beifahrern wieder zu aktivieren.
  • Diese Vorkehrungen berücksichtigen ferner nicht die Anwesenheit von relativ kleinen erwachsenen Insassen in einem Fahrzeug, das mit einem dem Schutz von größeren Personen dienenden Airbag ausgerüstet ist. Folglich besteht ein Bedarf zu ermöglichen, dass der Betrieb des Airbags in Abhängigkeit von der Größe einer auf dem Sitz zu schützenden individuellen Person angepasst abläuft.
  • Allerdings muss für eine dynamische Konfiguration des Airbags sein Steuer-/Regelsystem in der Lage sein, die Größe des Fahrzeuginsassen zuverlässig zu erfassen. Als eine Lösung hierfür ist vorgeschlagen worden, das Gewicht der den Sitz einnehmenden Person zu erfassen. Allerdings gibt das Gewicht einer Person für sich genommen nicht genügend Auskunft über deren Bewegungszustände während eines Zusammenstoßes. Beispielsweise wird eine Person mit einem tiefliegenden Schwerpunkt und schmächtigen Oberkörper ein im Vergleich zu einer Person mit einer schmalen Taille und einem muskulösen Oberkörper völlig unterschiedliches kinematisches Verhalten zeigen. Diese in Bezug auf die Kinematik während eines Zusammenstoßes vorzunehmende Unterscheidung ist für die dynamische Konfiguration eines Airbagbetriebs von großer Bedeutung.
  • Die US 5 530 420 A offenbart ein Fahrzeug mit einer stereoskopischen Bildverarbeitungseinheit, die dazu dient, ein Paar von stereoskopischen Abbildungen eines außerhalb eines Fahrzeugs befindlichen Objekts zu verarbeiten.
  • GB 2 301 922 zeigt ein Aufzeichnungssystem für den Fahrzeuginnenraum, das dazu eingerichtet ist, die Airbags zu regeln/steuern. Das bekannte System verwendet eine Kombination aus CCD-Kameras, die in dem Innenraum des Fahrzeugabteils verteilt sind, und Ultraschallmesswandlern. Die Kameras erzeugen zweidimensionale Bilder des jeweiligen Sitzplatzes. Der Abstand des am nächsten liegenden Punktes eines auf dem Sitz befindlichen Objekts und eines Referenzpunktes wird mittels der Ultraschallmesswandler erfasst.
  • Die US 5 531 472 zeigt ein System zur Überwachung eines auf einem Sitz angeordneten Objekts. Das System arbeitet mit einer unterhalb der Fahrzeugdecke angebrachten Kamera. Die Kamera ist nach unten auf den Sitz gerichtet und ermöglicht ein Erfassen der Umrisse eines auf dem Sitz befindlichen Objekts in einer horizontalen Ebene.
  • Kurzbeschreibung der Erfindung
  • Eine allgemeine Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung zum Erfassen der Anwesenheit oder Ab wesenheit eines innerhalb eines Kraftfahrzeugs auf einem Sitz befindlichen Insassen zu schaffen.
  • Eine weitere Aufgabe ist es, diese Vorrichtung mittels eines stereoskopischen Bildverarbeitungssystems zu verwirklichen.
  • Noch eine Aufgabe ist es, einem derartigen System die Fähigkeit zu verleihen, die Größe der den Sitz einnehmenden Person zu ermitteln.
  • Noch eine weitere Aufgabe der vorliegenden Erfindung ist es, einem derartigen System die Fähigkeit zu verleihen, die Sitzposition eines Insassen zu ermitteln.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist es, das stereoskopische Bildverarbeitungssystem mit der Fähigkeit auszustatten, Bewegungen zu erfassen, um auf dem Sitz abgelegte leblose Objekte von lebendigen zu unterscheiden.
  • Noch eine Aufgabe der vorliegenden Erfindung ist es, Daten zu erzeugen, die dazu dienen, den Betrieb eines Airbags in einem Kraftfahrzeug mit Rücksicht auf die körperlichen Eigenschaften der den Sitz einnehmenden Person zu konfigurieren.
  • Eine zusätzliche Aufgabe ist es, Information über die Bewegungszustände des Fahrzeuginsassen während eines Zusammenstoßes in Echtzeit zur Verfügung zu stellen, die eine dynamische Optimierung der Funktion des Airbags ermöglichen.
  • Diese und andere Aufgaben werden durch ein stereoskopisches Objekterfassungssystem gemäß den Merkmalen nach Anspruch 1 gelöst, das ein Paar von Kameras enthält, die erste und zweite Bilder des Sitzplatzes erzeugen. Bei diesen Bildern ist die Position von Bildelementen zwischen dem ersten und zweiten Bild um ein dem Abstand der Elemente zu den Kameras entsprechendes Maß verschoben. Ein Abstandsprozessor berechnet die Abstände, die mehrere auf dem ersten und zweiten Bild abgebildete Merkmale gegenüber dem Kamerapaar aufweisen, und zwar auf der Grundlage der Positionsverschiebungen dieser Merkmale zwischen dem ersten und zweiten Bild. Aus den Abstandswerten ermittelt ein Bildanalysator die Anwesenheit eines Objekts auf dem Sitz. Der Bildanalysator bestimmt ferner anhand der Abstandswerte die Größe des Objekts.
  • In dem bevorzugten Ausführungsbeispiel des stereoskopischen Objekterfassungssystems werden die Abstandswerte verwendet, um eine Bewegung des auf dem Sitz befindlichen Objekts sowie die Geschwindigkeit dieser Bewegung zu erfassen. Ferner kann eine Mustererkennung an den Abstandsdaten oder an den ersten und/oder den zweiten Bildern vorgenommen werden, um das Objekt zu klassifizieren.
  • In einer Anwendung der vorliegenden Erfindung werden die Ergebnisse der Bildanalyse von einer Vorrichtung verwendet, um den Betrieb einer Einrichtung an Bord des Kraftfahrzeugs zu steuern/regeln. Beispielsweise können jene Ergebnisse verwendet werden, um ein Entfalten eines Airbags in dem Kraftfahrzeug entsprechend den physischen Eigenschaften einer auf dem Sitz vorhandenen Person zu konfigurieren.
  • Kurzbeschreibung der Zeichnungen
  • Fig. 1 zeigt eine Seitenansicht eines Kraftfahrzeugs, das ein erfindungsgemäßes System zum Erfassen von Fahrzeuginsassen verwendet;
  • Fig. 2 zeigt eine Ansicht der Vordersitze des Kraftfahrzeugs mit Blick von oben;
  • Fig. 3 veranschaulicht in einem schematischen Blockschaltbild das erfindungsgemäße stereoskopische Bildverarbeitungssystem zum Erfassen von Fahrzeuginsassen auf dem Kraftfahrzeugsitz;
  • Fig. 4A und 4B stellen ein Flussdiagramm des Verfahrens dar, mittels dessen die vollständigen stereoskopischen Bilder verarbeitet werden;
  • Fig. 5 veranschaulicht die geometrischen Grundlagen des Triangulationsverfahrens, das für die Berechnung des Abstandes zwischen den Kameras und einem in dem Fahrzeug befindlichen Objekt verwendet wird;
  • Fig. 6 veranschaulicht grafisch die aus den Bilddaten mittels des stereoskopischen Bildverarbeitungssystems erzeugten Abstandsdaten; und
  • Fig. 7 zeigt ein Flussdiagramm des Verfahrens, mittels dessen vordefinierte Segmente der stereoskopischen Bilder in Echtzeit verarbeitet werden.
  • Detaillierte Beschreibung der Erfindung
  • Gemäß Fig. 1 und 2 weist der vordere Bereich der Fahrgastzelle eines Kraftfahrzeugs 10 ein Armaturenbrett 12 auf, aus dem ein Lenkrad 14 ragt. In einem Abstand zu dem Armaturenbrett 12 ist eine vordere Sitzgruppe 16 angeordnet, die sowohl für den Beifahrer als auch für den Fahrer eine serienmäßige Kopfstütze 18 aufweist. Da der Fahrer im weiteren Sinne auch ein Fahrzeugpassagier ist, bezieht sich der Ausdruck "Passagier" in dem hier verwendeten Sinne auf den Fahrer ebenso wie auf sonstige Fahrzeuginsassen. Das Lenkrad weist in dessen Mitte ein Fach auf, in dem ein erster Airbag 20 untergebracht ist, und das Armaturenbrett verfügt über ein weiteres Fach, das einen zweiten Airbag 22 enthält, der gegenüber dem rechten Bereich der Sitzgruppe 16 angeordnet ist.
  • In der Decke der Fahrgastzelle ist oberhalb der Windschutzscheibe eine Anordnung 24 mit zwei gesonderten Videokameras 26 und 28 angebracht, die in Querrichtung des Fahrzeugs in einer Ebene nebeneinanderliegend befestigt sind. Jede Kamera 26 und 28 ist vorzugsweise ein Bildsensor, bei dem auf jede Pixelposition willkürlich zugegriffen werden kann, wodurch ermöglicht ist, bestimmte Segmente der Bilder zu einem Ausgang zu speisen, ohne dass ein Auslesen der übrigen Bildbereiche erforderlich ist. Bildaufnehmer dieser Bauart sind unter der Bezeichnung "aktiver Pixelsensor" (APS) bekannt und in dem US-Patent 5 471 515 beschrieben. Alternativ könnten andere Arten von Bildsensoreinrichtungen, z. B. ladungsgekoppelte Bauelemente (CCD), verwendet werden, bei denen auf die Möglichkeit eines willkürlichen Zugriffs auf Bildsegmente verzichtet wird. Vorzugsweise sind die Kameras 26 und 28 im nahen Infrarotlichtbereich empfindlich und ein oder mehrere Infrarotlichtquellen 29 oberhalb der Windschutzscheibe angebracht, um die Vordersitze 16 des Fahrzeugs beleuchten. Eine derartige Beleuchtung ermöglicht den Betrieb des erfindungsgemäßen Systems bei Nacht, ohne dass dadurch das Vermögen eines Insassen, die Strecke zu sehen, beeinträchtigt wird. Im Tagbetrieb werden darüber hinaus Bildbereiche, die im Schatten liegen, durch die Quelle 29 ergänzend ausgeleuchtet.
  • Die linke Kamera 28 weist einen durch die strichlierten Linien in Fig. 2 angezeigten horizontalen Betrachtungsbereich auf, während ein horizontaler Betrachtungsbereich der rechten Kamera 26 durch die strichpunktierten Linien angedeutet ist. Die vertikalen Betrachtungswinkel der beiden Kameras 26 und 28 stimmen überein, wie durch die strichlierten Linien in Fig. 1 angezeigt. Die linke und die rechte Kamera 26 und 28 erzeugen ein Paar von stereoskopischen ersten und zweiten Abbildungen der vorderen Sitzgruppe 16 des Kraftfahrzeugs und der Körper von auf diesen Sitzen positionierten Fahrzeuginsassen. Da die beiden Kameras 26 und 28 quer zu dem Fahrzeug nach rechts und links versetzt sind, enthalten das erste und zweite Bild, die im Wesentlichen gleichzeitig erfasst werden, weitgehend dieselben Objekte, jedoch sind diese in den beiden Bildern zueinander horizontal verschoben. Hierdurch entsteht ein stereoskopisches Bildpaar, das sich analysieren lässt, um Abstände zwischen den Kameras und Objekten in dem Fahrzeug zu ermitteln. Wie im folgenden erläutert, werden für die Analyse hinlänglich bekannte photogrammetrische Messverfahren eingesetzt, beispielsweise solche, die zum Bestimmen der Höhenlinien von geographischen Strukturen in Luftaufnahmen verwendet werden. Alternativ kann eine einzige Abbildungsvorrichtung mit zwei Sätzen von Linsen und Spiegeln verwendet werden, um in ein und derselben Abbildungsvorrichtung ein stereoskopisches Paar von seitlich zueinander verschobenen Bildern abzubilden. Diese alternative Ausführungsform ist als äquivalent zu der Verwendung von separaten Kameras für jedes stereoskopische Einzelbild anzusehen.
  • Obwohl die linke und die rechte Hälfte der stereoskopischen Bilder für das Erfassen der Anwesenheit, der Positionen und der Größe von zwei Passagieren auf der Sitzbank 16 verarbeitet werden, wird hier zur Vereinfachung der Beschreibung nur die Verarbeitung einer der beiden Hälften des Bildes beschrieben, wobei es sich versteht, dass die Verarbeitung für beide Hälften auf die gleiche Weise erfolgt.
  • Unter Bezugnahme auf Fig. 3 werden die aus der rechten und linken Kamera 26 und 28 stammenden Bilder den Eingängen eines Bildprozessors 30 eingespeist. Der Bildprozessor 30 enthält einen Abstandsunterprozessor 32, der die Abstände der auf den Bildern abgebildeten Objekte zu der Kameraanordnung 24 berechnet, und ein Abstandsbildverarbeitungssystem 34, das die Abstandsmessergebnisse analysiert, um die Anwesenheit, die Größe und sonstige Eigenschaften eines Insassen auf dem Kraftfahrzeugsitz 16 zu ermitteln.
  • Der Abstandsunterprozessor 32 umfasst einen Abstandsdetektor 36, der solche Merkmale, die in beiden stereoskopischen Bildern übereinstimmen, lokalisiert und den Abstand zu einem derartigen Merkmal berechnet. Das Ergebnis der Abstandsmessung wird in einem Speicher 38 als ein Element eines Abstandsbildes gespeichert. Der Abstandsunterprozessor 32 ähnelt demjenigen, der in dem US-Patent 5 530 420 beschrieben ist.
  • Auf den Abstandsbildspeicher 38 kann sowohl der Abstandsdetektor 36 als auch über eine Speicherschnittstelle 40 das Abstandsbildverarbeitungssystem 34 zugreifen. Die Speicherschnittstelle 40 ist mit einem Satz von Daten-, Adress- und Steuerbussen 42 verbunden, an die auch ein Mikroprozessor 44 angeschlossen ist. Der Mikroprozessor führt ein in einem Festwertspeicher (ROM) 46 gespeichertes Programm aus, das die Daten des Abstandsbildes, wie weiter unten beschrieben, analysiert. Ein Speicher mit wahlfreiem Zugriff (RAM) 48 ist mit den Bussen 42 verbunden, um Zwischenergebnisse und sonstige Daten zu speichern, die von dem Mikroprozessor 44 während jener Analyse verwendet werden. Der Mikroprozessor 44 kann ferner über eine mit dem Bussystem 42 verbundene Kameraschnittstelle 49 ein visuelles Bild unmittelbar von der rechten Videokamera 26 entgegennehmen. Ein Ausgabespeicher 50 ist vorgesehen, um die Ergebnisse der Analyse des Abstandsbildes festzuhalten und eine Interfaceschaltung 52 gibt diese Ergebnisse an Vorrichtungen außerhalb des Abstandsbildverarbeitungssystems 34 weiter. Für den Fall, dass das vorliegende System den Betrieb eines Airbags in dem Kraftfahrzeug regeln soll, ist die Interfaceschaltung 52 mit dem Eingang eines Airbag-Controllers 54 verbunden. Dieser Controller 54 empfängt ferner bei Auftreten eines Unfalls von einem Aufprallsensor 56 ein kennzeichnendes Signal. Der Aufprallsensor 56 kann ein Signal ausgeben, das für die Schwere des Aufpralls, beispielsweise für die Verzögerungsrate, kennzeichnend ist. Der Airbag-Controller 54 spricht auf diese Eingangssignale an, indem er Airbags 58 für den Fahrer und den Beifahrer aktiviert.
  • Die stereoskopischen Bilder werden auf der Grundlage eines zeitlich ausgelösten Interrupts verarbeitet, indem beispielsweise alle zehn Sekunden das gesamte stereoskopische Bild analysiert wird, während einige ausgewählte Abschnitte der zwei Bilder jede Millisekunde verarbeitet werden. Die Gesamtbildverarbeitung beginnt in dem Flussdiagramm nach Fig. 4A in Schritt 70 mit der periodischen Erfassung von zwei stereoskopischen Einzelbildern, die jeweils aus der rechten und der linken Videokamera 26 bzw. 28 stammen. Zu diesem Zeitpunkt empfängt der Mikroprozessor 44 ein Interruptsignal und reagiert darauf, indem er ein Ausgangsbefehlssignal zum Vollbilderwerb an den Abstandsdetektor 36 ausgibt. Daraufhin analysiert der Abstandsdetektor 36 in Schritt 72 die erfassten stereoskopischen Bilder, um auf dem einen Bild eine kleine Gruppe von Bildelementen zu finden, die zu einer Gruppe von Bildelementen auf dem anderen Bild passt, um auf diese Weise übereinstimmende Punkte auf Objekten in jedem Bild zu lokalisieren. Solche übereinstimmenden Punkte können beispielsweise Objektmerkmale wie Ränder, Linien und spezifische Formen sein.
  • Wenn der Abstandsdetektor 36 den entsprechenden Punkt in beiden Bildern lokalisiert hat, verwendet er photogrammetrische Triangulation zur Bestimmung des Abstands eines derartiger Punktes auf einem abgebildeten Objekt von der Ebene der Kameralinse. Dieses Verfahren ist allgemein bekannt, siehe Paul R. Wolf in Elements of Photogrammetry, 1974, McGraw-Hill, Inc. Wie in Fig. 5 gezeigt, sind die linke und die rechte Kamera in der Ebene der Kameralinse mit einem Abstand r voneinander beabstandet angeordnet, und jede Kamera weist ihre Brennpunkt in einem Abstand f hinter der Linsenebene der Kamera. Aufgrund des zwischen den beiden Kameras von links nach rechts gegebenen Versatzes r kommt es zu einer Abweichung mit einem Wert x für den sich in den beiden Bildern der Kamera entsprechenden Punkt. Dem zufolge ergibt sich der Abstand D zwischen der Linsenebene der Kamera und dem abgebildeten Punkt rechnerisch aus dem Ausdruck: D = r(f/x). Die Werte r und f sind anhand der Konstruktion der Kameraanordnung 24 bekannt.
  • In Schritt 74 wird auf der Grundlage der Differenz der Pixelpositionen des in den zwei Bildern übereinstimmenden Punktes und der Breite jedes Pixels der Betrag der zwischen dem rechten und linken Bild bestehenden Abweichung x ermittelt. Durch Einsetzen dieses Wertes von x in den obigen Ausdruck berechnet der Abstandsdetektor 36 in Schritt 76 den Abstand D, der in Schritt 78 als eines von vielen Elementen eines Abstandsbildes in dem Speicher 38 gespeichert wird. Wie nachstehend erläutert, ist der Abstandsbildspeicher 38 in der Lage, zwei Abstandsbilder zu speichern, wobei die Daten für einen neuen Satz von stereoskopischen Bildern das ältere Abstandsbild ersetzen. Dementsprechend werden ständig die beiden zuletzt gewonnenen Abstandsbilder in dem Speicher 38 gehalten.
  • Anschließend wird in Schritt 80 eine Entscheidung getroffen, ob noch weitere übereinstimmende Punkte in den stereoskopischen Bildern lokalisiert und verarbeitet werden müssen. Wenn sämtliche der übereinstimmenden Bildpunkte verarbeitet sind, stellt das Abstandsbild ein zweidimensionales Feld von Daten dar, wobei jede Position in dem Feld den Abstand des in den stereoskopischen Bildern entsprechend lokalisierten Punktes enthält. Die in dem Abstandsbild gespeicherten Daten könnten somit grafisch als eine Reliefkarte des in Form von Abständen zu der Linsenebene der Kamera gegebenen Bildes dargestellt werden. Ein Beispiel einer derartigen dreidimensionalen Darstellung ist in Fig. 6 gezeigt, wobei die x- und y-Achsen den Pixelpositio nen des in der Kamera abgebildeten Bildes entsprechen und die Amplituden der Abstandsdaten für jede Pixelposition in Richtung der z-Achse aufgetragen sind. An den äußeren Rändern des Abstandsbildes sind die Werte verhältnismäßig tief und entsprechen der Oberfläche des Sitzes 16, während der Bereich in der Bildmitte einem Objekt entspricht, das sich auf dem Sitz befindet. Tatsächlich sind die dem Sitz entsprechenden Abstandswerte größer als jene, die dem Objekt entsprechen, da der Fahrzeugsitz 16 weiter von der Kamera entfernt ist. Nichtsdestoweniger ist zu beachten, dass sich die Ränder des Objekts durch abrupte, große Sprünge der Abstandsdaten hervorheben. Dies ermöglicht das Auffinden der äußeren Begrenzungen des Objekts. Wie nachstehend erläutert, lässt sich das Volumen eines in dem Bild befindlichen Objekts berechnen, indem die mittleren x- und y-Dimensionen der Objektgrenzen und der Mittelwert der Abstandswerte bestimmt wird.
  • Gemäß dem Flussdiagramm in Fig. 4A erfolgt die Analyse des Abstandsbildes, indem der Mikroprozessor 44 in Schritt 82 das Abstandsbild sorgfältig untersucht, um die Differenz zwischen den dem Sitz 16 entsprechenden Datenwerten und denjenigen des Bildbereichs zu ermitteln, der den geringsten Abstand zu der Kamera aufweist. Wenn die Differenz zwischen dem Abstand zu dem Sitz 16 und dem Abstand zu anderen Bildelementen einen Schwellenwert überschreitet, schließt der Mikroprozessor 44 daraus, dass auf dem Sitz 16 ein Objekt vorhanden ist. Um Fehlschlüsse zu vermeiden, wie sie durch einen oder zwei falsche Datenwerte entstehen können, die einen sehr geringen Abstand zu der Kamera kennzeichnen, kann der Mikroprozessor für die Entscheidung, dass auf dem Sitz 16 ein Objekt vorhanden ist, als Bedingung voraussetzen, dass eine entsprechend hohe Anzahl von Punkten, deren Abstandswerte jene Schwelle überschreiten, vorliegen muss. Diese Entscheidung wird in der Bildanalyse in Schritt 84 getroffen, und falls das Ergebnis WAHR ist, wird in dem Ausgabespeicher 50 ein Flag gesetzt. Falls gefolgert wird, dass kein signifikantes Objekt anwesend ist, wird der Ausgabespeicher 50 in Schritt 83 gelöscht und die Fortsetzung der Analyse des Abstandsbildes abgebrochen.
  • Wenn der Mikroprozessor 44 den logischen Schluss zieht, dass die Daten für die mögliche Anwesenheit einer Person kennzeichnend sind, wird das Abstandsbild in Schritt 85 weiter analysiert, um den mittleren Abstand zwischen der Kamera und der Person zu ermitteln. Das Ergebnis dieser Berechnung wird in dem Ausgangspeicher 50 gespeichert. Anschließend wird das in dem Speicher 38 gespeicherte Abstandsbild in Schritt 86 analysiert, um einen Näherungswert für das Volumen der auf dem Sitz 16 befindlichen Person zu ermitteln. Bei dieser Ermittlung sucht der Mikroprozessor 44 die horizontalen und vertikalen Begrenzungen der Person, die, wie in Fig. 6 zu sehen, durch verhältnismäßig große Sprünge in den Abstandswerten gekennzeichnet sind. Hierdurch wird ein Umriss der äußeren Begrenzung der Person erhalten, und es können herkömmliche Verfahren verwendet werden, um die von der Begrenzung umschlossene Fläche zu berechnen. Anschließend wird der zuvor berechnete mittlere Abstand zwischen dem Sitz 16 und dem Objekt als die dritte Dimension für die Berechnung des Volumens der Person herangezogen. Das Ergebnis wird in dem Ausgabespeicher 50 gespeichert.
  • In Schritt 87 wird die Position der Person in horizontaler Richtung (von links nach rechts) bestimmt, indem die Position des Volumens in Bezug auf den Rand des Bildes er mittelt wird. Die Kenntnis der Nähe eines Fahrzeuginsassen zu der Türe kann für das Regeln/Steuern des Aufblasvorgangs eines Seitenairbags von Nutzen sein. Eine weitere Untersuchung kann erfolgen, um die Position des Volumens in Bezug auf den unteren Rand des Bildes zu ermitteln, wodurch ersichtlich wird, ob eine große Person nach unten in den Sitz eingesunken ist. Die Daten über die Position werden ebenfalls in dem Ausgabespeicher 50 gespeichert.
  • Anschließend wird in Schritt 88 eine Analyse an dem Abstandsbild vorgenommen, die dazu dient, physische Schlüsselmerkmale, z. B. den oberen Rand des Kopfes der Person, zu finden. Dies lässt sich ermitteln, indem von oben her nach unten fortschreitend nach einem verhältnismäßig großen Sprung in den Daten des Abstandsbildes gesucht wird. Die Position des oberen Randes des Kopfes ist ein Maß für die relative Größe des Passagiers. Sämtliche Ergebnisse der Analysen gemäß den Schritten 85-88 werden in dem Ausgabespeicher 50 des Abstandsbildverarbeitungssystem 34 gespeichert.
  • In vielen Anwendungen erzeugt die soweit beschriebene Bildverarbeitung genügend Information, um eine Vorrichtung, beispielsweise einen Airbag in einem Kraftfahrzeug, zu steuern. Allerdings können die Bilddaten noch weiter analysiert werden, um zusätzliche Informationen über die Fahrzeuginsassen zur Verfügung zu stellen. Durch eine nachfolgende Verarbeitung lässt sich ermitteln, ob ein in dem Sitz 16 befindliches Objekt sich bewegt, um so ein großes, lebloses Objekt von einer Person zu unterscheiden. Hierfür wird die durch das Abstandsbildverarbeitungssystem 34 durchgeführte Analyse in Schritt 90 gemäß Fig. 4B fortgesetzt.
  • Zu diesem Zeitpunkt wird das in dem Speicher 38 gespeicherte neue Abstandsbild mit dem ebenfalls in dem Speicher gespeicherten früheren Abstandsbild verglichen. Falls während der zehn Sekunden dauernden Bilderfassungsperiode an keiner der Sitzpositionen des Fahrzeugsitzes 16 eine Bewegung stattgefunden hat, kann eine Entscheidung darüber getroffen werden, wonach die Objekte in dem Bild unbelebt sind. Dies wird in Schritt 92 durchgeführt, indem die beiden Abstandsbilder Datenelement für Datenelement verglichen werden und die Anzahl der Datenelementpaare, die eine Differenz aufweisen, die einen vordefinierten Betrag übersteigt, gezählt wird. Alternativ können die zwei zu verschiedenen Zeitpunkten gespeicherten Videobilder entweder der rechten oder der linken Kamera 26 bzw. 28 verglichen werden, um die Bewegung eines Objekts zu erfassen. Aufgrund von Erschütterungen des Fahrzeugs ist eine geringfügige Veränderung zwischen zwei zu unterschiedlichen Zeitpunkten gewonnenen Abstandsbildern auch dann zu erwarten, wenn nur leblose Objekte vorliegen. Eine vernachlässigbar geringe Veränderung eines gegebenen Datenwerts des Abstandsbilds bleibt daher für die Entscheidung, ob eine Bewegung vorliegt, unberücksichtigt, und eine wesentliche Änderung von nur wenigen Datenwerten wird ebenfalls nicht beachtet. Jedoch ist eine wesentliche Änderung einer großen Anzahl von Abstandsdatenpunkten für eine Bewegung des Objekts auf dem Fahrzeugsitz 16 kennzeichnend. Der genaue Betrag der Änderung eines gegebenen Datenwerts und die Anzahl von Datenwerten, die eine derartige Änderung aufweisen müssen, um als Anzeichen für eine Bewegung gewertet zu werden, hängen von der Empfindlichkeit der Videokameras und von der Bildauflösung ab.
  • Nach dem Vergleich der zwei Abstandsbilder wird in Schritt 94 entschieden, ob sich eine signifikante Anzahl M der Datenwerte um den geforderten Betrag verändert hat. In diesem Fall wird in Schritt 96 ein Bewegungsflag in dem Ausgabespeicher 50 gesetzt, um anzuzeigen, dass das auf der Sitzposition befindliche Objekt sich bewegt hat. Andernfalls wird das eine Bewegung kennzeichnende Flag in Schritt 98 zurückgesetzt.
  • Falls gewünscht, kann die Verarbeitung der Bilddaten durch die Ausführung einer Mustererkennung mittels eines beliebigen der hinlänglich bekannten Mustererkennungsverfahren fortgesetzt werden. Für diesen Zweck speichert der Bildprozessor 30 ein Referenz- oder Grundmuster in dem RAM- Speicher 48 ab. Beispielsweise kann das Referenzmuster einem unbesetzten Sitzplatz oder einem auf dem Fahrzeugsitz 16 deponierten Kindersitz entsprechen. Das Referenzmuster wird in Schritt 100 erzeugt, indem ein Abstandsbild der zur Referenz dienenden stereoskopischen Bilder erzeugt wird und dieses Abstandsbild verarbeitet wird, um die Musterdaten abzuleiten. Beispielsweise wird das Abstandsbild verarbeitet, um Objektranddaten zu erhalten, die anschließend durch Verzweigung der Programmausführung von Schritt 102 nach Schritt 103 gemäß diesem Schritt in dem RAM-Speicher 48 gespeichert werden.
  • Anschließend werden während der Bildverarbeitung in Schritt 100 aus einem neuen Satz von stereoskopischen Bildern ähnliche Musterdaten abgeleitet. Diese Musterdaten werden in Schritt 104 mit dem Referenzmuster verglichen. In Schritt 106 ermittelt der Mikroprozessor 44, ob das neue Bildmuster dem Referenzmuster im Wesentlichen entspricht, wobei in diesem Falle in Schritt 106 ein Anzeigeflag in dem Ausgabespeicher 50 gesetzt wird. Andernfalls wird das die Musterübereinstimmung anzeigende Flag in Schritt 110 zurückgesetzt. Alternativ können die unmittelbar von der rechten Kamera 26 erfassten visuellen Bilder über das Kamerainterface 49 entgegen genommen und zur Mustererkennung verarbeitet werden.
  • Die Verarbeitung des gesamten Abstandsbildes endet in diesem Falle, und zwar zu einem Zeitpunkt, da der Ausgabespeicher 50 des Bildprozessors 30 die Ergebnisse der vielfältigen ausgeführten Analysen enthält. Über die Interfaceschaltung 52 ist der Airbag-Controller 54 in der Lage, diese gespeicherten Ergebnisse entgegenzunehmen, und er kann diese Ergebnisse auswerten, um die Art und Weise zu bestimmen, in der die Airbags 58 im Falle eines Unfalls aufzublasen sind. Die periodisch, beispielsweise alle zehn Sekunden durchgeführte Analyse des gesamten stereoskopischen Bildes ermöglicht auf diese Weise eine ständige Aktualisierung der Betriebsparameter der Airbags. Eine derartige periodische Beobachtung des Belegungszustands des Sitzes berücksichtigt Änderungen in der Sitzposition und sonstige Bewegungen der betreffenden Person in der Fahrgastzelle.
  • Wenn die Ergebnisse des Bildprozessors 30 anzeigen, dass keine Person auf dem Sitz 16 vorhanden ist, ist ein Aufblasen des Airbags überflüssig, da dies ohne Nutzen wäre. Ferner ist es, falls die durch den Mikroprozessor 44 durchgeführte Analyse anzeigt, dass eine den Fahrzeugsitz 16 einnehmende Person ein verhältnismäßig geringes Volumen aufweist und/oder, wie anhand der Position der Oberseite des Kopfes jener Person ermittelt, verhältnismäßig klein ist, wahrscheinlich, dass es sich bei dem auf dem Sitz befindlichen Insassen um ein Kind handelt. In diesen Fällen würde der Airbag-Controller 54 ein Entfalten des Airbags deaktivieren.
  • In einer Situation, in der der Mikroprozessor 44 folgert, dass eine ausreichend große Person anwesend ist, wird die Anfangsrate, mit der der Airbag während eines Unfalls aufgeblasen wird, an das Volumen und die Größe des Fahrzeuginsassen sowie dessen mittleren Abstand zu dem. Airbag angepasst. Insbesondere wird die Aufblasrate umso größer bemessen, je näher sich die Person an dem Airbag befindet und je größer diese Person ist.
  • Die kinematischen Daten über die Bewegung der Person während des Zusammenstoßes lassen sich verwenden, um die Aufblasrate des Airbags je nach Schwere des Unfalls entsprechend zu steuern. Je rascher der Zusammenstoß abläuft und je größer die Kräfte sind, die auf den Insassen wirken, desto zügiger sollte ein Airbag entfaltet werden. Das erfindungsgemäße Bildverarbeitungssystem ist ferner in der Lage, kinematische Daten über den Insassen ohne den Einsatz zusätzlicher Hardware zu erzeugen.
  • Deshalb verarbeitet das erfindungsgemäße System ausgewählte Segmente der stereoskopischen Bilder im Vergleich zur Verarbeitung der Gesamtbilder häufiger, um Echtzeitdaten zu erzeugen, die kennzeichnend für die Bewegung des Insassen während eines Zusammenstoßes sind. Zu diesem Zweck führt der Mikroprozessor 44 ferner, beispielsweise periodisch im Abstand einer Millisekunde, eine Interruptroutine aus, wie in Fig. 7 veranschaulicht. Diese Interruptroutine beginnt in Schritt 120, indem der Mikroprozessor 44 über die Speicherschnittstelle 40 ein Befehlssignal an den Abstandsunterprozessor 32 ausgibt, der den Abstandsdetektor 36 veranlasst, einen vordefinierten Bereich der stereosko pischen Bilder von den Videokameras 26 und 28 zu erhalten und zu verarbeiten. Der vordefinierte Bereich eines jeden Bildes kann innerhalb eines jeden Bildes zwei Segmente mit zehn Spalten von Bildelementen umfassen, die jeweils den Zentren der normalen Sitzpositionen für die sitzenden Personen entsprechen. Diese Segmente werden anschließend verarbeitet, um Parameter für die Steuerung der Airbags zu bestimmen, die diesen zwei Sitzpositionen zugeordnet sind. Aus Gründen der Übersichtlichkeit wird die Verarbeitung der Bildsegmente für nur eine der Sitzpositionen beschrieben.
  • In Schritt 122 lokalisiert der Abstandsdetektor 36 in der gleichen Weise, wie dies im Falles des zuvor beschriebenen Gesamtbildes geschieht, übereinstimmende Punkte oder Merkmale in den Bildsegmenten aus jeder Kamera. Anschließend wird in Schritt 124 der Abweichungsbetrag x der übereinstimmenden Punkte in den Segmenten des stereoskopischen Bildes ermittelt und in Schritt 126 verwendet, um Abstandsdaten für das Bildsegment zu berechnen. In Schritt 128 werden diese Abstandsdaten in einem Bereich des Abstandsbildspeichers 38 gespeichert. Der Abstandsbildspeicher 38 weist zwei Bereiche zusätzlicher Speicheradressen auf, die der Speicherung von Abstandsdaten der Bildsegmente dienen. Ein Bereich speichert Daten des zuletzt gewonnenen Satzes von Bildsegmenten und der andere Bereich enthält vorhergehende Abstandsdaten der Bildsegmente, wobei jede neue Gruppe von Daten den Speicherabschnitt überschreibt, der die ältesten Abstandsdaten enthält.
  • In dem Abstandsbildverarbeitungssystem 34 übernimmt der Mikroprozessor 44 dann die Verarbeitung, indem er in Schritt 130 die Veränderung des Abstands zwischen den zwei gespeicherten Sätzen von Abstandsdaten berechnet. In Schritt 132 werden die Änderungsdaten in dem Ausgabespeicher 50 gespeichert. Da die Abstandsdaten in gleichmäßigen Intervallen, von beispielsweise einer Millisekunde, erfasst werden, entsprechen die Änderungen unmittelbar einer Änderungsrate des Abstands oder mit anderen Worten der Geschwindigkeit, mit der sich das auf dem Sitz befindliche Objekt bewegt. Die Geschwindigkeit kann berechnet und in dem Ausgabespeicher 50 gespeichert werden, oder der Airbag- Controller 54 kann einfach unmittelbar auf die Daten der Abstandsänderung zugreifen. In beiden Fällen entsprechen diese, in dem Ausgabespeicher gespeicherten Daten der Geschwindigkeit des Objekts.
  • Über die Interfaceschaltung 52 werden die für die Geschwindigkeit maßgebenden Daten dem Airbag-Controller 54 zur Verfügung gestellt. Der Airbag-Controller 54 steuert in Abhängigkeit von der Geschwindigkeit, mit der sich ein Fahrzeuginsasse momentan dem entsprechenden Airbag während eines Unfalls nähert, die Geschwindigkeit, mit der die Airbags 58 aufgeblasen werden.

Claims (19)

1. Stereoskopisches Objekterfassungssystem zur Erfassung und Bestimmung von Kenngrößen von auf einem Sitz (16) eines Kraftfahrzeugs (10) befindlichen Objekten, wobei zu dem stereoskopischen Objekterfassungssystem gehören:
eine Kameraanordnung (24), die dazu dient, ein erstes und zweites Bild von dem Sitz (16) zu erzeugen, in denen Bildmerkmale zwischen dem ersten und zweiten Bild um ein Maß verschoben sind, das von dem Abstand abhängig ist, in dem sich die Bildmerkmale von der Kameraanordnung (24) entfernt befinden;
ein Bildanalysator (34), der mit der Kameraanordnung (24) in Verbindung steht und der das erste und zweite Bild verarbeitet, um die Anwesenheit eines Objekts auf dem Sitz (16) festzustellen und um die Größe des Objekts in Abhängigkeit von einem gegebenen Betrag zu ermitteln, um den das Objekt zwischen dem ersten und zweiten Bild verschoben ist; und
eine mit dem Bildanalysator (34) in Verbindung stehende Ausgabevorrichtung (52), die ein Signal erzeugt, falls die Anwesenheit eines Objekts auf dem Sitz (16) festgestellt wird, wobei das Signal für die Größe des auf dem Sitz (16) befindlichen Objekts kennzeichnend ist.
2. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem die Kameraanordnung (24) das erste und zweite Bild im Wesentlichen gleichzeitig erzeugt.
3. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem die Kameraanordnung (24) einen Bildsensor (26, 28) umfasst, bei dem ein willkürlicher Zugriff auf Seg mente des ersten und zweiten Bildes möglich ist.
4. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem die Kameraanordnung (24) ein Paar von Kameras (26, 28) umfasst.
5. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem die Kameraanordnung (24) eine einzelne Abbildungsvorrichtung (26 oder 28) aufweist, die das erste und zweite Bild als räumlich nebeneinanderliegende Abbildungen erzeugt.
6. Stereoskopisches Objekterfassungssystem nach Anspruch 1, das ferner einen mit der Kameraanordnung (24) verbundenen Prozessor (32) enthält, der für mehrere Merkmale in dem ersten und zweiten Bild deren Abstände zu der Kameraanordnung (24) berechnet, wobei die Abstandswerte in Abhängigkeit von einer gegebenen Größe der Verschiebung ermittelt werden, um die die Vielzahl von Bildelementen zwischen dem ersten und zweiten Bild verschoben sind.
7. Stereoskopisches Objekterfassungssystem nach Anspruch 6, bei dem der Bildanalysator (34) die Abstandswerte für das Feststellen der Anwesenheit eines Objekts auf dem Sitz (16) verwendet.
8. Stereoskopisches Objekterfassungssystem nach Anspruch 6, bei dem der Bildanalysator (34) die Abstandswerte für das Ermitteln der Größe des auf dem Sitz (16) befindlichen Objekts verwendet.
9. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem der Bildanalysator (34) die Abstandswerte verwendet, um für wenigstens einen Teil des auf dem Sitz (16) befindlichen Objekts einen Näherungswert des Volumens zu ermitteln.
10. Stereoskopisches Objekterfassungssystem nach Anspruch 1, das ferner einen Bildanalysator (34) enthält, der von der Kameraanordnung (24) ausgegebene Daten verwendet, um eine Bewegung eines auf dem Sitz (16) befindlichen Objekts zu erfassen.
11. Stereoskopisches Objekterfassungssystem nach Anspruch 1, das ferner eine Mustererkennungsvorrichtung (100-106) enthält, die Daten aus der Kameraanordnung (24) entgegennimmt und die Daten verarbeitet, um das Vorkommen eines vordefinierten Musters entweder in dem ersten und/oder in dem zweiten Bild zu erkennen.
12. Stereoskopisches Objekterfassungssystem nach Anspruch 11, bei dem die Mustererkennungsvorrichtung (100-106) einen Speicher (48) zur Speicherung eines Referenzmusters und einen Prozessor (34, 104) enthält, der ein Vorkommen des Referenzmusters anhand der von der Kameraanordnung (24) ausgegebenen Daten erkennt.
13. Stereoskopisches Objekterfassungssystem nach Anspruch 11, bei dem das Referenzmuster für einen Kindersitz steht.
14. Stereoskopisches Objekterfassungssystem nach Anspruch 12, bei dem das Referenzmuster ein äußeres Merkmal eines Fahrzeugführers repräsentiert.
15. Stereoskopisches Objekterfassungssystem nach An- Spruch 1, zu dem ferner eine mit dem Ausgabegerät (52) verbundene Vorrichtung (54) gehört, die in Abhängigkeit von dem Signal die Entfaltung eines Airbags (58) regelt/steuert.
16. Stereoskopisches Objekterfassungssystem nach Anspruch 15, bei dem die Vorrichtung (54) eine Geschwindigkeit regelt/steuert, mit der der Airbag (58) aufgeblasen wird.
17. Stereoskopisches Objekterfassungssystem nach Anspruch 1, das ferner einen mit dem Ausgabegerät (52) verbundenen Mechanismus (54) enthält, der in Abhängigkeit von dem Signal den Betrieb einer Vorrichtung (58) des Kraftfahrzeugs (10) regelt/steuert.
18. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem der Bildanalysator (34) eine Bewegungsgeschwindigkeit des Objekts erfasst.
19. Stereoskopisches Objekterfassungssystem nach Anspruch 1, bei dem der Bildanalysator (34) das erste und zweite Bild verarbeitet, um Daten über den Bewegungszustand des Objekts zu erzeugen, und ferner eine mit dem Ausgabegerät (52) verbundene Vorrichtung (54) aufweist, um in Abhängigkeit von den Bewegungsdaten den Aufblasvorgang eines Airbags (58) zu regeln/steuern.
DE69809334T 1997-06-11 1998-06-10 Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug Expired - Fee Related DE69809334T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/872,836 US6757009B1 (en) 1997-06-11 1997-06-11 Apparatus for detecting the presence of an occupant in a motor vehicle

Publications (2)

Publication Number Publication Date
DE69809334D1 DE69809334D1 (de) 2002-12-19
DE69809334T2 true DE69809334T2 (de) 2003-09-18

Family

ID=25360396

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69809334T Expired - Fee Related DE69809334T2 (de) 1997-06-11 1998-06-10 Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug

Country Status (5)

Country Link
US (1) US6757009B1 (de)
EP (1) EP0885782B1 (de)
JP (1) JPH1115980A (de)
DE (1) DE69809334T2 (de)
ES (1) ES2186051T3 (de)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553296B2 (en) 1995-06-07 2003-04-22 Automotive Technologies International, Inc. Vehicular occupant detection arrangements
US6507779B2 (en) 1995-06-07 2003-01-14 Automotive Technologies International, Inc. Vehicle rear seat monitor
US6772057B2 (en) 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US6442465B2 (en) 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
US6856873B2 (en) 1995-06-07 2005-02-15 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US7164117B2 (en) 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US20070135982A1 (en) 1995-06-07 2007-06-14 Automotive Technologies International, Inc. Methods for Sensing Weight of an Occupying Item in a Vehicular Seat
US7734061B2 (en) * 1995-06-07 2010-06-08 Automotive Technologies International, Inc. Optical occupant sensing techniques
JP3532772B2 (ja) * 1998-09-25 2004-05-31 本田技研工業株式会社 乗員の乗車状態検出装置
EP1031475A3 (de) * 1999-02-26 2002-01-23 Breed Automotive Technology, Inc. System zum Schutz gegen einen Heckaufprall
JP3751467B2 (ja) * 1999-03-30 2006-03-01 株式会社東芝 車載機器制御装置および方法
DE19932520A1 (de) * 1999-07-12 2001-02-01 Hirschmann Austria Gmbh Rankwe Vorrichtung zur Steuerung eines Sicherheitssystems
KR20020029128A (ko) * 1999-09-10 2002-04-17 칼 하인쯔 호르닝어 시트에 설치된 승객 보호 장치의 작동을 제어하는 방법 및 장치
EP1297486A4 (de) * 2000-06-15 2006-09-27 Automotive Systems Lab Besetzungssensor
GB2366862B (en) * 2000-09-14 2004-09-22 Autoliv Dev Improvements in or relating to a camera arrangement
US6552550B2 (en) 2000-09-29 2003-04-22 Intelligent Mechatronic Systems, Inc. Vehicle occupant proximity sensor
DE10063697B4 (de) 2000-12-20 2006-07-13 Siemens Ag Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme
US6856694B2 (en) * 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
DE10138481A1 (de) * 2001-08-04 2003-02-27 Conti Temic Microelectronic Verfahren zum Betrieb der Funktionseinheiten eines Kraftfahrzeugs und Sicherungseinrichtung für die Funktionseinheiten eines Kraftfahrzeugs
JP4908704B2 (ja) * 2001-09-27 2012-04-04 株式会社東海理化電機製作所 車両室内監視装置
DE10151417A1 (de) * 2001-10-18 2003-05-08 Siemens Ag System und Verfahren zum Verarbeiten von Bilddaten
JP3758034B2 (ja) * 2001-10-30 2006-03-22 株式会社デンソー 車両用乗員保護装置
DE10156535C1 (de) 2001-11-14 2003-06-26 Siemens Ag Leistungsschalter
LU90912B1 (de) 2002-04-19 2003-10-20 Iee Sarl Sicherheitsvorrichtung fuer ein Fahrzeug
LU90914B1 (de) * 2002-04-26 2003-10-27 Iee Sarl Sicherheitsvorrichtung fuer ein Fahrzeug
EP1497160B2 (de) * 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
DE10246318A1 (de) * 2002-10-04 2004-04-15 Bayerische Motoren Werke Ag Sitzeinstellvorrichtung
DE10259795A1 (de) 2002-12-19 2004-07-08 Siemens Ag Bilderzeugungsvorrichtung zum Einbau im Dachbereich oder im Aussenspiegel eines Kraftfahrzeuges
JP4355899B2 (ja) * 2003-05-15 2009-11-04 トヨタ自動車株式会社 車両デバイス制御装置
DE10326425B4 (de) * 2003-06-10 2008-12-11 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur räumlichen Bilderfassung
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
US8553113B2 (en) * 2003-08-20 2013-10-08 At&T Intellectual Property I, L.P. Digital image capturing system and method
JP2005067281A (ja) * 2003-08-20 2005-03-17 Toshiba Corp 距離検出装置、エアバッグ制御装置および距離検出方法
US20070046779A1 (en) * 2003-11-11 2007-03-01 David Sourlier An installation for recording travel and/or traffic
DE102004040558A1 (de) * 2004-08-21 2006-02-23 A.D.C. Automotive Distance Control Systems Gmbh Optisches Objekterkennungssystem
JP2006176075A (ja) * 2004-12-24 2006-07-06 Tkj Kk 検知システム、乗員保護装置、車両、検知方法
US7372996B2 (en) * 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
US7283901B2 (en) 2005-01-13 2007-10-16 Trw Automotive U.S. Llc Controller system for a vehicle occupant protection device
JP2006205844A (ja) * 2005-01-27 2006-08-10 Aisin Seiki Co Ltd 乗員の頭部位置判定装置、及び該判定装置を備えた乗員保護装置
JP2006309455A (ja) * 2005-04-27 2006-11-09 Tokai Rika Co Ltd 特徴点検出装置及び距離測定装置
DE102005025963A1 (de) * 2005-05-23 2006-12-14 Conti Temic Microelectronic Gmbh Verfahren zur Erfassung von Objekten auf dem Sitz eines Fahrzeugs
US7472007B2 (en) * 2005-09-02 2008-12-30 Delphi Technologies, Inc. Method of classifying vehicle occupants
JP2007085745A (ja) * 2005-09-20 2007-04-05 Fuji Heavy Ind Ltd 物体監視装置
US20090295921A1 (en) * 2005-10-12 2009-12-03 Pioneer Corporation Vehicle-mounted photographing device and method of measuring photographable range of vehicle-mounted camera
DE102005056265A1 (de) * 2005-11-14 2007-05-16 Pilz Gmbh & Co Kg Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
JP4898261B2 (ja) * 2006-04-04 2012-03-14 タカタ株式会社 対象物検出システム、作動装置制御システム、車両、対象物検出方法
US20080075327A1 (en) * 2006-09-21 2008-03-27 Honeywell International Inc. Method and system for object characterization based on image volumetric determination
JP5030580B2 (ja) * 2006-12-27 2012-09-19 タカタ株式会社 車両用作動システム、車両
US20100077437A1 (en) * 2008-09-25 2010-03-25 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Vehicle entertainment system with video surround
CN102985945B (zh) * 2011-06-02 2016-09-07 松下知识产权经营株式会社 物体检测装置、物体检测方法
FR3039461B1 (fr) * 2015-07-30 2018-12-07 Valeo Systemes Thermiques Systeme de commande pour installation de conditionnement d'air d'un vehicule automobile
JP6519499B2 (ja) * 2016-02-23 2019-05-29 株式会社デンソー 車両用システム及びコンピュータプログラム
JP6798299B2 (ja) * 2016-12-16 2020-12-09 アイシン精機株式会社 乗員検出装置
US10776640B2 (en) 2017-01-06 2020-09-15 International Business Machines Corporation Enhanced vehicle monitoring
EP3598396A1 (de) * 2018-07-20 2020-01-22 Rothenbühler, Rudolf Computergestütztes verfahren zum analysieren personenbezogener unfalldaten
JP2020053819A (ja) * 2018-09-26 2020-04-02 アイシン精機株式会社 撮像システム、撮像装置、および信号処理装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5845000A (en) 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US6039139A (en) * 1992-05-05 2000-03-21 Automotive Technologies International, Inc. Method and system for optimizing comfort of an occupant
US4843463A (en) * 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
SE468462B (sv) 1989-05-31 1993-01-25 Berit Lindqvist Metod foer stereofotografisk dokumentation och fotogrammetrisk maetning inom tandvaarden samt anordning foer genomfoerande av metoden
US5193124A (en) * 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
US5835613A (en) * 1992-05-05 1998-11-10 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
WO1994022693A1 (en) * 1993-03-31 1994-10-13 Automotive Technologies International, Inc. Vehicle occupant position and velocity sensor
JP3522317B2 (ja) 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US5471515A (en) 1994-01-28 1995-11-28 California Institute Of Technology Active pixel sensor with intra-pixel charge transfer
US5914610A (en) * 1994-02-03 1999-06-22 Massachusetts Institute Of Technology Apparatus and method for characterizing movement of a mass within a defined space
US5531472A (en) 1995-05-01 1996-07-02 Trw Vehicle Safety Systems, Inc. Apparatus and method for controlling an occupant restraint system
US5770997A (en) * 1995-06-26 1998-06-23 Alliedsignal Inc. Vehicle occupant sensing system
CA2190674A1 (en) 1995-12-27 1997-06-28 Alexander George Dickinson Inflatable restraint system including an optical image sensor
US5871232A (en) * 1997-01-17 1999-02-16 Automotive Systems, Laboratory, Inc. Occupant position sensing system

Also Published As

Publication number Publication date
JPH1115980A (ja) 1999-01-22
EP0885782B1 (de) 2002-11-13
US6757009B1 (en) 2004-06-29
DE69809334D1 (de) 2002-12-19
ES2186051T3 (es) 2003-05-01
EP0885782A1 (de) 1998-12-23

Similar Documents

Publication Publication Date Title
DE69809334T2 (de) Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug
DE10158415C2 (de) Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
DE112015002934B4 (de) Vorrichtung zum Erfassen eines Fahrunvermögenzustands eines Fahrers
DE602006001012T2 (de) Objekterkennung und Fussgänger Schutzsystem
DE19947062B4 (de) Vorrichtung zum Erfassen eines Objekts unter Verwendung eines Differentialbildes
DE4042721C2 (de) Verfahren zum Auslösen von Insassenschutzvorrichtungen
DE19654550B4 (de) In einem Fahrzeug montierte Haltungs-Stützvorrichtung und Verfahren zur Stützung bzw. Stabilisierung der Haltung eines Fahrzeuginsassen
DE602005005225T2 (de) Vorrichtung zum Auswählen zwischen Anwendungen einer Fahrzeuginnenraumkamera
DE102018106687A1 (de) Überwachen einer fahrzeugkabine
DE102018220286A1 (de) Ablenkungserfassungssystem
DE69634847T2 (de) Verfahren und Vorrichtung zum Abfühlen von Aufprall-Crashzuständen mit Absicherungsfunktion
DE112015003672T5 (de) Fahrerüberwachungsvorrichtung
DE102017214009B4 (de) Verfahren und Vorrichtung zur Erkennung der Anwesenheit und/oder Bewegung eines Fahrzeuginsassen
DE102018202450B4 (de) Fahrzeuginsassenschutzvorrichtung
EP1069001A1 (de) Vorrichtung zur Steuerung eines Sicherheitsystems
EP3572290A1 (de) Innenüberwachung für sicherheitsgurteinstellung
EP1246741B1 (de) Verfahren und vorrichtung zur sitzbelegungserkennung mittels videosensorik und fussraumsensorik
DE102006021824B4 (de) Verfahren und Vorrichtung zur Steuerung einer betätigbaren Rückhaltvorrichtung unter Verwendung von XY Seitensatellitenbeschleunigungsmessern
EP1632403A1 (de) Passagierschutzeinrichtung in einem Fahrzeug
DE102006041725A1 (de) Verfahren und Vorrichtung zum Betrieb einer Vor-Aufprall-Erfassungsanordnung mit Kontaktsensor
DE102005013164B4 (de) Verfahren und Vorrichtung zur Steuerung eines passiven Rückhaltesystems
DE19945411A1 (de) Insassenschutzsystem bei Rückwärtsaufprall
DE102021000509A1 (de) Verfahren zum Betrieb eines Fahrzeugs
DE102019122808A1 (de) Überwachungseinrichtung für fahrzeuginsassen und schutzsystem für fahrzeuginsassen
DE102019122809A1 (de) Überwachungseinrichtung für fahrzeuginsassen und schutzsystem für fahrzeuginsassen

Legal Events

Date Code Title Description
8363 Opposition against the patent
8339 Ceased/non-payment of the annual fee