DE69809334T2 - Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug - Google Patents
Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem KraftfahrzeugInfo
- Publication number
- DE69809334T2 DE69809334T2 DE69809334T DE69809334T DE69809334T2 DE 69809334 T2 DE69809334 T2 DE 69809334T2 DE 69809334 T DE69809334 T DE 69809334T DE 69809334 T DE69809334 T DE 69809334T DE 69809334 T2 DE69809334 T2 DE 69809334T2
- Authority
- DE
- Germany
- Prior art keywords
- detection system
- object detection
- image
- seat
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 10
- 238000003909 pattern recognition Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims 2
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000006073 displacement reaction Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000006378 damage Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000010418 babysitting Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/0153—Passenger detection systems using field detection presence sensors
- B60R21/01538—Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60N—SEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
- B60N2/00—Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
- B60N2/002—Seats provided with an occupancy detection means mounted therein or thereon
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60N—SEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
- B60N2/00—Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
- B60N2/002—Seats provided with an occupancy detection means mounted therein or thereon
- B60N2/0021—Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement
- B60N2/0024—Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat
- B60N2/0029—Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat for detecting the motion of the occupant
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01556—Child-seat detection systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60N—SEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
- B60N2210/00—Sensor types, e.g. for passenger detection systems or for controlling seats
- B60N2210/10—Field detection presence sensors
- B60N2210/16—Electromagnetic waves
- B60N2210/22—Optical; Photoelectric; Lidar [Light Detection and Ranging]
- B60N2210/24—Cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R2021/01315—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring occupant displacement
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Air Bags (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
- Die Erfindung betrifft eine Vorrichtung zum Erfassen der Anwesenheit oder Abwesenheit von Objekten und insbesondere die Erfassung, ob auf einem Sitzplatz eines Kraftfahrzeugs ein Insasse anwesend ist.
- Als Sicherheitseinrichtung verfügen moderne Kraftfahrzeuge über integrierte Airbags, die jeweils vor dem Fahrer in dem Lenkrad und vor einem auf dem Vordersitz sitzenden Beifahrer in dem Armaturenbrett eingebaut sind. Zusätzliche Airbags werden gegenwärtig für die Türen seitlich der Fahrzeuginsassen vorgeschlagen. Eine während eines Unfalls auftretende starke Verzögerung des Kraftfahrzeugs wird erfasst, und ein Aufblasen der Airbags wird aktiviert, die daraufhin die Fahrzeuginsassen in einem Luftkissen auffangen.
- Zwar konnten Airbags die Schwere von Verletzungen bei Kraftfahrzeugzusammenstößen in hohem Maße reduzieren, jedoch kommt es gelegentlich aufgrund der großen Geschwindigkeit, mit der das Aufblasen eines Airbags erfolgen muss, zu Verletzungen des Beifahrers und/oder des Fahrers. Insbesondere kann der Airbag ein auf dem Vordersitz des Fahrzeug sitzendes kleines Kind oder Baby ernsthaft verletzen.
- Um im Falle eines Unfalls Kleinkinder und Säuglinge nicht der beim Aufblasen entstehenden Kraft eines sich entfaltenden Airbags auszusetzen, wird gegenwärtig daher empfohlen, diese auf den Rücksitzen des Fahrzeugs zu beför dern. Allerdings wird dies nicht der Situation gerecht, bei der diese Empfehlung missachtet wird und ein Kind auf dem Vordersitz des Fahrzeugs mitfährt. Außerdem bleibt bei Fahrzeugen für nur zwei Personen, beispielsweise in Sportfahrzeugen und Lastfahrzeugen, keine andere Wahl, als ein Kind oder Baby auf einen Sitz zu setzen, gegenüber dem ein Airbag angebracht ist. Für die zuletzt erwähnte Situation wurde vorgeschlagen, einen manuellen Deaktivierungsschalter vorzusehen, der den vor dem Kind befindlichen Airbag außer Kraft setzt. Allerdings muss dieser Schalter nicht nur bei jeder Beförderung eines Kindes manuell betätigt werden, vielmehr muss sich der Fahrzeugführer auch daran erinnern, den Airbag im Falle von erwachsenen Beifahrern wieder zu aktivieren.
- Diese Vorkehrungen berücksichtigen ferner nicht die Anwesenheit von relativ kleinen erwachsenen Insassen in einem Fahrzeug, das mit einem dem Schutz von größeren Personen dienenden Airbag ausgerüstet ist. Folglich besteht ein Bedarf zu ermöglichen, dass der Betrieb des Airbags in Abhängigkeit von der Größe einer auf dem Sitz zu schützenden individuellen Person angepasst abläuft.
- Allerdings muss für eine dynamische Konfiguration des Airbags sein Steuer-/Regelsystem in der Lage sein, die Größe des Fahrzeuginsassen zuverlässig zu erfassen. Als eine Lösung hierfür ist vorgeschlagen worden, das Gewicht der den Sitz einnehmenden Person zu erfassen. Allerdings gibt das Gewicht einer Person für sich genommen nicht genügend Auskunft über deren Bewegungszustände während eines Zusammenstoßes. Beispielsweise wird eine Person mit einem tiefliegenden Schwerpunkt und schmächtigen Oberkörper ein im Vergleich zu einer Person mit einer schmalen Taille und einem muskulösen Oberkörper völlig unterschiedliches kinematisches Verhalten zeigen. Diese in Bezug auf die Kinematik während eines Zusammenstoßes vorzunehmende Unterscheidung ist für die dynamische Konfiguration eines Airbagbetriebs von großer Bedeutung.
- Die US 5 530 420 A offenbart ein Fahrzeug mit einer stereoskopischen Bildverarbeitungseinheit, die dazu dient, ein Paar von stereoskopischen Abbildungen eines außerhalb eines Fahrzeugs befindlichen Objekts zu verarbeiten.
- GB 2 301 922 zeigt ein Aufzeichnungssystem für den Fahrzeuginnenraum, das dazu eingerichtet ist, die Airbags zu regeln/steuern. Das bekannte System verwendet eine Kombination aus CCD-Kameras, die in dem Innenraum des Fahrzeugabteils verteilt sind, und Ultraschallmesswandlern. Die Kameras erzeugen zweidimensionale Bilder des jeweiligen Sitzplatzes. Der Abstand des am nächsten liegenden Punktes eines auf dem Sitz befindlichen Objekts und eines Referenzpunktes wird mittels der Ultraschallmesswandler erfasst.
- Die US 5 531 472 zeigt ein System zur Überwachung eines auf einem Sitz angeordneten Objekts. Das System arbeitet mit einer unterhalb der Fahrzeugdecke angebrachten Kamera. Die Kamera ist nach unten auf den Sitz gerichtet und ermöglicht ein Erfassen der Umrisse eines auf dem Sitz befindlichen Objekts in einer horizontalen Ebene.
- Eine allgemeine Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung zum Erfassen der Anwesenheit oder Ab wesenheit eines innerhalb eines Kraftfahrzeugs auf einem Sitz befindlichen Insassen zu schaffen.
- Eine weitere Aufgabe ist es, diese Vorrichtung mittels eines stereoskopischen Bildverarbeitungssystems zu verwirklichen.
- Noch eine Aufgabe ist es, einem derartigen System die Fähigkeit zu verleihen, die Größe der den Sitz einnehmenden Person zu ermitteln.
- Noch eine weitere Aufgabe der vorliegenden Erfindung ist es, einem derartigen System die Fähigkeit zu verleihen, die Sitzposition eines Insassen zu ermitteln.
- Eine weitere Aufgabe der vorliegenden Erfindung ist es, das stereoskopische Bildverarbeitungssystem mit der Fähigkeit auszustatten, Bewegungen zu erfassen, um auf dem Sitz abgelegte leblose Objekte von lebendigen zu unterscheiden.
- Noch eine Aufgabe der vorliegenden Erfindung ist es, Daten zu erzeugen, die dazu dienen, den Betrieb eines Airbags in einem Kraftfahrzeug mit Rücksicht auf die körperlichen Eigenschaften der den Sitz einnehmenden Person zu konfigurieren.
- Eine zusätzliche Aufgabe ist es, Information über die Bewegungszustände des Fahrzeuginsassen während eines Zusammenstoßes in Echtzeit zur Verfügung zu stellen, die eine dynamische Optimierung der Funktion des Airbags ermöglichen.
- Diese und andere Aufgaben werden durch ein stereoskopisches Objekterfassungssystem gemäß den Merkmalen nach Anspruch 1 gelöst, das ein Paar von Kameras enthält, die erste und zweite Bilder des Sitzplatzes erzeugen. Bei diesen Bildern ist die Position von Bildelementen zwischen dem ersten und zweiten Bild um ein dem Abstand der Elemente zu den Kameras entsprechendes Maß verschoben. Ein Abstandsprozessor berechnet die Abstände, die mehrere auf dem ersten und zweiten Bild abgebildete Merkmale gegenüber dem Kamerapaar aufweisen, und zwar auf der Grundlage der Positionsverschiebungen dieser Merkmale zwischen dem ersten und zweiten Bild. Aus den Abstandswerten ermittelt ein Bildanalysator die Anwesenheit eines Objekts auf dem Sitz. Der Bildanalysator bestimmt ferner anhand der Abstandswerte die Größe des Objekts.
- In dem bevorzugten Ausführungsbeispiel des stereoskopischen Objekterfassungssystems werden die Abstandswerte verwendet, um eine Bewegung des auf dem Sitz befindlichen Objekts sowie die Geschwindigkeit dieser Bewegung zu erfassen. Ferner kann eine Mustererkennung an den Abstandsdaten oder an den ersten und/oder den zweiten Bildern vorgenommen werden, um das Objekt zu klassifizieren.
- In einer Anwendung der vorliegenden Erfindung werden die Ergebnisse der Bildanalyse von einer Vorrichtung verwendet, um den Betrieb einer Einrichtung an Bord des Kraftfahrzeugs zu steuern/regeln. Beispielsweise können jene Ergebnisse verwendet werden, um ein Entfalten eines Airbags in dem Kraftfahrzeug entsprechend den physischen Eigenschaften einer auf dem Sitz vorhandenen Person zu konfigurieren.
- Fig. 1 zeigt eine Seitenansicht eines Kraftfahrzeugs, das ein erfindungsgemäßes System zum Erfassen von Fahrzeuginsassen verwendet;
- Fig. 2 zeigt eine Ansicht der Vordersitze des Kraftfahrzeugs mit Blick von oben;
- Fig. 3 veranschaulicht in einem schematischen Blockschaltbild das erfindungsgemäße stereoskopische Bildverarbeitungssystem zum Erfassen von Fahrzeuginsassen auf dem Kraftfahrzeugsitz;
- Fig. 4A und 4B stellen ein Flussdiagramm des Verfahrens dar, mittels dessen die vollständigen stereoskopischen Bilder verarbeitet werden;
- Fig. 5 veranschaulicht die geometrischen Grundlagen des Triangulationsverfahrens, das für die Berechnung des Abstandes zwischen den Kameras und einem in dem Fahrzeug befindlichen Objekt verwendet wird;
- Fig. 6 veranschaulicht grafisch die aus den Bilddaten mittels des stereoskopischen Bildverarbeitungssystems erzeugten Abstandsdaten; und
- Fig. 7 zeigt ein Flussdiagramm des Verfahrens, mittels dessen vordefinierte Segmente der stereoskopischen Bilder in Echtzeit verarbeitet werden.
- Gemäß Fig. 1 und 2 weist der vordere Bereich der Fahrgastzelle eines Kraftfahrzeugs 10 ein Armaturenbrett 12 auf, aus dem ein Lenkrad 14 ragt. In einem Abstand zu dem Armaturenbrett 12 ist eine vordere Sitzgruppe 16 angeordnet, die sowohl für den Beifahrer als auch für den Fahrer eine serienmäßige Kopfstütze 18 aufweist. Da der Fahrer im weiteren Sinne auch ein Fahrzeugpassagier ist, bezieht sich der Ausdruck "Passagier" in dem hier verwendeten Sinne auf den Fahrer ebenso wie auf sonstige Fahrzeuginsassen. Das Lenkrad weist in dessen Mitte ein Fach auf, in dem ein erster Airbag 20 untergebracht ist, und das Armaturenbrett verfügt über ein weiteres Fach, das einen zweiten Airbag 22 enthält, der gegenüber dem rechten Bereich der Sitzgruppe 16 angeordnet ist.
- In der Decke der Fahrgastzelle ist oberhalb der Windschutzscheibe eine Anordnung 24 mit zwei gesonderten Videokameras 26 und 28 angebracht, die in Querrichtung des Fahrzeugs in einer Ebene nebeneinanderliegend befestigt sind. Jede Kamera 26 und 28 ist vorzugsweise ein Bildsensor, bei dem auf jede Pixelposition willkürlich zugegriffen werden kann, wodurch ermöglicht ist, bestimmte Segmente der Bilder zu einem Ausgang zu speisen, ohne dass ein Auslesen der übrigen Bildbereiche erforderlich ist. Bildaufnehmer dieser Bauart sind unter der Bezeichnung "aktiver Pixelsensor" (APS) bekannt und in dem US-Patent 5 471 515 beschrieben. Alternativ könnten andere Arten von Bildsensoreinrichtungen, z. B. ladungsgekoppelte Bauelemente (CCD), verwendet werden, bei denen auf die Möglichkeit eines willkürlichen Zugriffs auf Bildsegmente verzichtet wird. Vorzugsweise sind die Kameras 26 und 28 im nahen Infrarotlichtbereich empfindlich und ein oder mehrere Infrarotlichtquellen 29 oberhalb der Windschutzscheibe angebracht, um die Vordersitze 16 des Fahrzeugs beleuchten. Eine derartige Beleuchtung ermöglicht den Betrieb des erfindungsgemäßen Systems bei Nacht, ohne dass dadurch das Vermögen eines Insassen, die Strecke zu sehen, beeinträchtigt wird. Im Tagbetrieb werden darüber hinaus Bildbereiche, die im Schatten liegen, durch die Quelle 29 ergänzend ausgeleuchtet.
- Die linke Kamera 28 weist einen durch die strichlierten Linien in Fig. 2 angezeigten horizontalen Betrachtungsbereich auf, während ein horizontaler Betrachtungsbereich der rechten Kamera 26 durch die strichpunktierten Linien angedeutet ist. Die vertikalen Betrachtungswinkel der beiden Kameras 26 und 28 stimmen überein, wie durch die strichlierten Linien in Fig. 1 angezeigt. Die linke und die rechte Kamera 26 und 28 erzeugen ein Paar von stereoskopischen ersten und zweiten Abbildungen der vorderen Sitzgruppe 16 des Kraftfahrzeugs und der Körper von auf diesen Sitzen positionierten Fahrzeuginsassen. Da die beiden Kameras 26 und 28 quer zu dem Fahrzeug nach rechts und links versetzt sind, enthalten das erste und zweite Bild, die im Wesentlichen gleichzeitig erfasst werden, weitgehend dieselben Objekte, jedoch sind diese in den beiden Bildern zueinander horizontal verschoben. Hierdurch entsteht ein stereoskopisches Bildpaar, das sich analysieren lässt, um Abstände zwischen den Kameras und Objekten in dem Fahrzeug zu ermitteln. Wie im folgenden erläutert, werden für die Analyse hinlänglich bekannte photogrammetrische Messverfahren eingesetzt, beispielsweise solche, die zum Bestimmen der Höhenlinien von geographischen Strukturen in Luftaufnahmen verwendet werden. Alternativ kann eine einzige Abbildungsvorrichtung mit zwei Sätzen von Linsen und Spiegeln verwendet werden, um in ein und derselben Abbildungsvorrichtung ein stereoskopisches Paar von seitlich zueinander verschobenen Bildern abzubilden. Diese alternative Ausführungsform ist als äquivalent zu der Verwendung von separaten Kameras für jedes stereoskopische Einzelbild anzusehen.
- Obwohl die linke und die rechte Hälfte der stereoskopischen Bilder für das Erfassen der Anwesenheit, der Positionen und der Größe von zwei Passagieren auf der Sitzbank 16 verarbeitet werden, wird hier zur Vereinfachung der Beschreibung nur die Verarbeitung einer der beiden Hälften des Bildes beschrieben, wobei es sich versteht, dass die Verarbeitung für beide Hälften auf die gleiche Weise erfolgt.
- Unter Bezugnahme auf Fig. 3 werden die aus der rechten und linken Kamera 26 und 28 stammenden Bilder den Eingängen eines Bildprozessors 30 eingespeist. Der Bildprozessor 30 enthält einen Abstandsunterprozessor 32, der die Abstände der auf den Bildern abgebildeten Objekte zu der Kameraanordnung 24 berechnet, und ein Abstandsbildverarbeitungssystem 34, das die Abstandsmessergebnisse analysiert, um die Anwesenheit, die Größe und sonstige Eigenschaften eines Insassen auf dem Kraftfahrzeugsitz 16 zu ermitteln.
- Der Abstandsunterprozessor 32 umfasst einen Abstandsdetektor 36, der solche Merkmale, die in beiden stereoskopischen Bildern übereinstimmen, lokalisiert und den Abstand zu einem derartigen Merkmal berechnet. Das Ergebnis der Abstandsmessung wird in einem Speicher 38 als ein Element eines Abstandsbildes gespeichert. Der Abstandsunterprozessor 32 ähnelt demjenigen, der in dem US-Patent 5 530 420 beschrieben ist.
- Auf den Abstandsbildspeicher 38 kann sowohl der Abstandsdetektor 36 als auch über eine Speicherschnittstelle 40 das Abstandsbildverarbeitungssystem 34 zugreifen. Die Speicherschnittstelle 40 ist mit einem Satz von Daten-, Adress- und Steuerbussen 42 verbunden, an die auch ein Mikroprozessor 44 angeschlossen ist. Der Mikroprozessor führt ein in einem Festwertspeicher (ROM) 46 gespeichertes Programm aus, das die Daten des Abstandsbildes, wie weiter unten beschrieben, analysiert. Ein Speicher mit wahlfreiem Zugriff (RAM) 48 ist mit den Bussen 42 verbunden, um Zwischenergebnisse und sonstige Daten zu speichern, die von dem Mikroprozessor 44 während jener Analyse verwendet werden. Der Mikroprozessor 44 kann ferner über eine mit dem Bussystem 42 verbundene Kameraschnittstelle 49 ein visuelles Bild unmittelbar von der rechten Videokamera 26 entgegennehmen. Ein Ausgabespeicher 50 ist vorgesehen, um die Ergebnisse der Analyse des Abstandsbildes festzuhalten und eine Interfaceschaltung 52 gibt diese Ergebnisse an Vorrichtungen außerhalb des Abstandsbildverarbeitungssystems 34 weiter. Für den Fall, dass das vorliegende System den Betrieb eines Airbags in dem Kraftfahrzeug regeln soll, ist die Interfaceschaltung 52 mit dem Eingang eines Airbag-Controllers 54 verbunden. Dieser Controller 54 empfängt ferner bei Auftreten eines Unfalls von einem Aufprallsensor 56 ein kennzeichnendes Signal. Der Aufprallsensor 56 kann ein Signal ausgeben, das für die Schwere des Aufpralls, beispielsweise für die Verzögerungsrate, kennzeichnend ist. Der Airbag-Controller 54 spricht auf diese Eingangssignale an, indem er Airbags 58 für den Fahrer und den Beifahrer aktiviert.
- Die stereoskopischen Bilder werden auf der Grundlage eines zeitlich ausgelösten Interrupts verarbeitet, indem beispielsweise alle zehn Sekunden das gesamte stereoskopische Bild analysiert wird, während einige ausgewählte Abschnitte der zwei Bilder jede Millisekunde verarbeitet werden. Die Gesamtbildverarbeitung beginnt in dem Flussdiagramm nach Fig. 4A in Schritt 70 mit der periodischen Erfassung von zwei stereoskopischen Einzelbildern, die jeweils aus der rechten und der linken Videokamera 26 bzw. 28 stammen. Zu diesem Zeitpunkt empfängt der Mikroprozessor 44 ein Interruptsignal und reagiert darauf, indem er ein Ausgangsbefehlssignal zum Vollbilderwerb an den Abstandsdetektor 36 ausgibt. Daraufhin analysiert der Abstandsdetektor 36 in Schritt 72 die erfassten stereoskopischen Bilder, um auf dem einen Bild eine kleine Gruppe von Bildelementen zu finden, die zu einer Gruppe von Bildelementen auf dem anderen Bild passt, um auf diese Weise übereinstimmende Punkte auf Objekten in jedem Bild zu lokalisieren. Solche übereinstimmenden Punkte können beispielsweise Objektmerkmale wie Ränder, Linien und spezifische Formen sein.
- Wenn der Abstandsdetektor 36 den entsprechenden Punkt in beiden Bildern lokalisiert hat, verwendet er photogrammetrische Triangulation zur Bestimmung des Abstands eines derartiger Punktes auf einem abgebildeten Objekt von der Ebene der Kameralinse. Dieses Verfahren ist allgemein bekannt, siehe Paul R. Wolf in Elements of Photogrammetry, 1974, McGraw-Hill, Inc. Wie in Fig. 5 gezeigt, sind die linke und die rechte Kamera in der Ebene der Kameralinse mit einem Abstand r voneinander beabstandet angeordnet, und jede Kamera weist ihre Brennpunkt in einem Abstand f hinter der Linsenebene der Kamera. Aufgrund des zwischen den beiden Kameras von links nach rechts gegebenen Versatzes r kommt es zu einer Abweichung mit einem Wert x für den sich in den beiden Bildern der Kamera entsprechenden Punkt. Dem zufolge ergibt sich der Abstand D zwischen der Linsenebene der Kamera und dem abgebildeten Punkt rechnerisch aus dem Ausdruck: D = r(f/x). Die Werte r und f sind anhand der Konstruktion der Kameraanordnung 24 bekannt.
- In Schritt 74 wird auf der Grundlage der Differenz der Pixelpositionen des in den zwei Bildern übereinstimmenden Punktes und der Breite jedes Pixels der Betrag der zwischen dem rechten und linken Bild bestehenden Abweichung x ermittelt. Durch Einsetzen dieses Wertes von x in den obigen Ausdruck berechnet der Abstandsdetektor 36 in Schritt 76 den Abstand D, der in Schritt 78 als eines von vielen Elementen eines Abstandsbildes in dem Speicher 38 gespeichert wird. Wie nachstehend erläutert, ist der Abstandsbildspeicher 38 in der Lage, zwei Abstandsbilder zu speichern, wobei die Daten für einen neuen Satz von stereoskopischen Bildern das ältere Abstandsbild ersetzen. Dementsprechend werden ständig die beiden zuletzt gewonnenen Abstandsbilder in dem Speicher 38 gehalten.
- Anschließend wird in Schritt 80 eine Entscheidung getroffen, ob noch weitere übereinstimmende Punkte in den stereoskopischen Bildern lokalisiert und verarbeitet werden müssen. Wenn sämtliche der übereinstimmenden Bildpunkte verarbeitet sind, stellt das Abstandsbild ein zweidimensionales Feld von Daten dar, wobei jede Position in dem Feld den Abstand des in den stereoskopischen Bildern entsprechend lokalisierten Punktes enthält. Die in dem Abstandsbild gespeicherten Daten könnten somit grafisch als eine Reliefkarte des in Form von Abständen zu der Linsenebene der Kamera gegebenen Bildes dargestellt werden. Ein Beispiel einer derartigen dreidimensionalen Darstellung ist in Fig. 6 gezeigt, wobei die x- und y-Achsen den Pixelpositio nen des in der Kamera abgebildeten Bildes entsprechen und die Amplituden der Abstandsdaten für jede Pixelposition in Richtung der z-Achse aufgetragen sind. An den äußeren Rändern des Abstandsbildes sind die Werte verhältnismäßig tief und entsprechen der Oberfläche des Sitzes 16, während der Bereich in der Bildmitte einem Objekt entspricht, das sich auf dem Sitz befindet. Tatsächlich sind die dem Sitz entsprechenden Abstandswerte größer als jene, die dem Objekt entsprechen, da der Fahrzeugsitz 16 weiter von der Kamera entfernt ist. Nichtsdestoweniger ist zu beachten, dass sich die Ränder des Objekts durch abrupte, große Sprünge der Abstandsdaten hervorheben. Dies ermöglicht das Auffinden der äußeren Begrenzungen des Objekts. Wie nachstehend erläutert, lässt sich das Volumen eines in dem Bild befindlichen Objekts berechnen, indem die mittleren x- und y-Dimensionen der Objektgrenzen und der Mittelwert der Abstandswerte bestimmt wird.
- Gemäß dem Flussdiagramm in Fig. 4A erfolgt die Analyse des Abstandsbildes, indem der Mikroprozessor 44 in Schritt 82 das Abstandsbild sorgfältig untersucht, um die Differenz zwischen den dem Sitz 16 entsprechenden Datenwerten und denjenigen des Bildbereichs zu ermitteln, der den geringsten Abstand zu der Kamera aufweist. Wenn die Differenz zwischen dem Abstand zu dem Sitz 16 und dem Abstand zu anderen Bildelementen einen Schwellenwert überschreitet, schließt der Mikroprozessor 44 daraus, dass auf dem Sitz 16 ein Objekt vorhanden ist. Um Fehlschlüsse zu vermeiden, wie sie durch einen oder zwei falsche Datenwerte entstehen können, die einen sehr geringen Abstand zu der Kamera kennzeichnen, kann der Mikroprozessor für die Entscheidung, dass auf dem Sitz 16 ein Objekt vorhanden ist, als Bedingung voraussetzen, dass eine entsprechend hohe Anzahl von Punkten, deren Abstandswerte jene Schwelle überschreiten, vorliegen muss. Diese Entscheidung wird in der Bildanalyse in Schritt 84 getroffen, und falls das Ergebnis WAHR ist, wird in dem Ausgabespeicher 50 ein Flag gesetzt. Falls gefolgert wird, dass kein signifikantes Objekt anwesend ist, wird der Ausgabespeicher 50 in Schritt 83 gelöscht und die Fortsetzung der Analyse des Abstandsbildes abgebrochen.
- Wenn der Mikroprozessor 44 den logischen Schluss zieht, dass die Daten für die mögliche Anwesenheit einer Person kennzeichnend sind, wird das Abstandsbild in Schritt 85 weiter analysiert, um den mittleren Abstand zwischen der Kamera und der Person zu ermitteln. Das Ergebnis dieser Berechnung wird in dem Ausgangspeicher 50 gespeichert. Anschließend wird das in dem Speicher 38 gespeicherte Abstandsbild in Schritt 86 analysiert, um einen Näherungswert für das Volumen der auf dem Sitz 16 befindlichen Person zu ermitteln. Bei dieser Ermittlung sucht der Mikroprozessor 44 die horizontalen und vertikalen Begrenzungen der Person, die, wie in Fig. 6 zu sehen, durch verhältnismäßig große Sprünge in den Abstandswerten gekennzeichnet sind. Hierdurch wird ein Umriss der äußeren Begrenzung der Person erhalten, und es können herkömmliche Verfahren verwendet werden, um die von der Begrenzung umschlossene Fläche zu berechnen. Anschließend wird der zuvor berechnete mittlere Abstand zwischen dem Sitz 16 und dem Objekt als die dritte Dimension für die Berechnung des Volumens der Person herangezogen. Das Ergebnis wird in dem Ausgabespeicher 50 gespeichert.
- In Schritt 87 wird die Position der Person in horizontaler Richtung (von links nach rechts) bestimmt, indem die Position des Volumens in Bezug auf den Rand des Bildes er mittelt wird. Die Kenntnis der Nähe eines Fahrzeuginsassen zu der Türe kann für das Regeln/Steuern des Aufblasvorgangs eines Seitenairbags von Nutzen sein. Eine weitere Untersuchung kann erfolgen, um die Position des Volumens in Bezug auf den unteren Rand des Bildes zu ermitteln, wodurch ersichtlich wird, ob eine große Person nach unten in den Sitz eingesunken ist. Die Daten über die Position werden ebenfalls in dem Ausgabespeicher 50 gespeichert.
- Anschließend wird in Schritt 88 eine Analyse an dem Abstandsbild vorgenommen, die dazu dient, physische Schlüsselmerkmale, z. B. den oberen Rand des Kopfes der Person, zu finden. Dies lässt sich ermitteln, indem von oben her nach unten fortschreitend nach einem verhältnismäßig großen Sprung in den Daten des Abstandsbildes gesucht wird. Die Position des oberen Randes des Kopfes ist ein Maß für die relative Größe des Passagiers. Sämtliche Ergebnisse der Analysen gemäß den Schritten 85-88 werden in dem Ausgabespeicher 50 des Abstandsbildverarbeitungssystem 34 gespeichert.
- In vielen Anwendungen erzeugt die soweit beschriebene Bildverarbeitung genügend Information, um eine Vorrichtung, beispielsweise einen Airbag in einem Kraftfahrzeug, zu steuern. Allerdings können die Bilddaten noch weiter analysiert werden, um zusätzliche Informationen über die Fahrzeuginsassen zur Verfügung zu stellen. Durch eine nachfolgende Verarbeitung lässt sich ermitteln, ob ein in dem Sitz 16 befindliches Objekt sich bewegt, um so ein großes, lebloses Objekt von einer Person zu unterscheiden. Hierfür wird die durch das Abstandsbildverarbeitungssystem 34 durchgeführte Analyse in Schritt 90 gemäß Fig. 4B fortgesetzt.
- Zu diesem Zeitpunkt wird das in dem Speicher 38 gespeicherte neue Abstandsbild mit dem ebenfalls in dem Speicher gespeicherten früheren Abstandsbild verglichen. Falls während der zehn Sekunden dauernden Bilderfassungsperiode an keiner der Sitzpositionen des Fahrzeugsitzes 16 eine Bewegung stattgefunden hat, kann eine Entscheidung darüber getroffen werden, wonach die Objekte in dem Bild unbelebt sind. Dies wird in Schritt 92 durchgeführt, indem die beiden Abstandsbilder Datenelement für Datenelement verglichen werden und die Anzahl der Datenelementpaare, die eine Differenz aufweisen, die einen vordefinierten Betrag übersteigt, gezählt wird. Alternativ können die zwei zu verschiedenen Zeitpunkten gespeicherten Videobilder entweder der rechten oder der linken Kamera 26 bzw. 28 verglichen werden, um die Bewegung eines Objekts zu erfassen. Aufgrund von Erschütterungen des Fahrzeugs ist eine geringfügige Veränderung zwischen zwei zu unterschiedlichen Zeitpunkten gewonnenen Abstandsbildern auch dann zu erwarten, wenn nur leblose Objekte vorliegen. Eine vernachlässigbar geringe Veränderung eines gegebenen Datenwerts des Abstandsbilds bleibt daher für die Entscheidung, ob eine Bewegung vorliegt, unberücksichtigt, und eine wesentliche Änderung von nur wenigen Datenwerten wird ebenfalls nicht beachtet. Jedoch ist eine wesentliche Änderung einer großen Anzahl von Abstandsdatenpunkten für eine Bewegung des Objekts auf dem Fahrzeugsitz 16 kennzeichnend. Der genaue Betrag der Änderung eines gegebenen Datenwerts und die Anzahl von Datenwerten, die eine derartige Änderung aufweisen müssen, um als Anzeichen für eine Bewegung gewertet zu werden, hängen von der Empfindlichkeit der Videokameras und von der Bildauflösung ab.
- Nach dem Vergleich der zwei Abstandsbilder wird in Schritt 94 entschieden, ob sich eine signifikante Anzahl M der Datenwerte um den geforderten Betrag verändert hat. In diesem Fall wird in Schritt 96 ein Bewegungsflag in dem Ausgabespeicher 50 gesetzt, um anzuzeigen, dass das auf der Sitzposition befindliche Objekt sich bewegt hat. Andernfalls wird das eine Bewegung kennzeichnende Flag in Schritt 98 zurückgesetzt.
- Falls gewünscht, kann die Verarbeitung der Bilddaten durch die Ausführung einer Mustererkennung mittels eines beliebigen der hinlänglich bekannten Mustererkennungsverfahren fortgesetzt werden. Für diesen Zweck speichert der Bildprozessor 30 ein Referenz- oder Grundmuster in dem RAM- Speicher 48 ab. Beispielsweise kann das Referenzmuster einem unbesetzten Sitzplatz oder einem auf dem Fahrzeugsitz 16 deponierten Kindersitz entsprechen. Das Referenzmuster wird in Schritt 100 erzeugt, indem ein Abstandsbild der zur Referenz dienenden stereoskopischen Bilder erzeugt wird und dieses Abstandsbild verarbeitet wird, um die Musterdaten abzuleiten. Beispielsweise wird das Abstandsbild verarbeitet, um Objektranddaten zu erhalten, die anschließend durch Verzweigung der Programmausführung von Schritt 102 nach Schritt 103 gemäß diesem Schritt in dem RAM-Speicher 48 gespeichert werden.
- Anschließend werden während der Bildverarbeitung in Schritt 100 aus einem neuen Satz von stereoskopischen Bildern ähnliche Musterdaten abgeleitet. Diese Musterdaten werden in Schritt 104 mit dem Referenzmuster verglichen. In Schritt 106 ermittelt der Mikroprozessor 44, ob das neue Bildmuster dem Referenzmuster im Wesentlichen entspricht, wobei in diesem Falle in Schritt 106 ein Anzeigeflag in dem Ausgabespeicher 50 gesetzt wird. Andernfalls wird das die Musterübereinstimmung anzeigende Flag in Schritt 110 zurückgesetzt. Alternativ können die unmittelbar von der rechten Kamera 26 erfassten visuellen Bilder über das Kamerainterface 49 entgegen genommen und zur Mustererkennung verarbeitet werden.
- Die Verarbeitung des gesamten Abstandsbildes endet in diesem Falle, und zwar zu einem Zeitpunkt, da der Ausgabespeicher 50 des Bildprozessors 30 die Ergebnisse der vielfältigen ausgeführten Analysen enthält. Über die Interfaceschaltung 52 ist der Airbag-Controller 54 in der Lage, diese gespeicherten Ergebnisse entgegenzunehmen, und er kann diese Ergebnisse auswerten, um die Art und Weise zu bestimmen, in der die Airbags 58 im Falle eines Unfalls aufzublasen sind. Die periodisch, beispielsweise alle zehn Sekunden durchgeführte Analyse des gesamten stereoskopischen Bildes ermöglicht auf diese Weise eine ständige Aktualisierung der Betriebsparameter der Airbags. Eine derartige periodische Beobachtung des Belegungszustands des Sitzes berücksichtigt Änderungen in der Sitzposition und sonstige Bewegungen der betreffenden Person in der Fahrgastzelle.
- Wenn die Ergebnisse des Bildprozessors 30 anzeigen, dass keine Person auf dem Sitz 16 vorhanden ist, ist ein Aufblasen des Airbags überflüssig, da dies ohne Nutzen wäre. Ferner ist es, falls die durch den Mikroprozessor 44 durchgeführte Analyse anzeigt, dass eine den Fahrzeugsitz 16 einnehmende Person ein verhältnismäßig geringes Volumen aufweist und/oder, wie anhand der Position der Oberseite des Kopfes jener Person ermittelt, verhältnismäßig klein ist, wahrscheinlich, dass es sich bei dem auf dem Sitz befindlichen Insassen um ein Kind handelt. In diesen Fällen würde der Airbag-Controller 54 ein Entfalten des Airbags deaktivieren.
- In einer Situation, in der der Mikroprozessor 44 folgert, dass eine ausreichend große Person anwesend ist, wird die Anfangsrate, mit der der Airbag während eines Unfalls aufgeblasen wird, an das Volumen und die Größe des Fahrzeuginsassen sowie dessen mittleren Abstand zu dem. Airbag angepasst. Insbesondere wird die Aufblasrate umso größer bemessen, je näher sich die Person an dem Airbag befindet und je größer diese Person ist.
- Die kinematischen Daten über die Bewegung der Person während des Zusammenstoßes lassen sich verwenden, um die Aufblasrate des Airbags je nach Schwere des Unfalls entsprechend zu steuern. Je rascher der Zusammenstoß abläuft und je größer die Kräfte sind, die auf den Insassen wirken, desto zügiger sollte ein Airbag entfaltet werden. Das erfindungsgemäße Bildverarbeitungssystem ist ferner in der Lage, kinematische Daten über den Insassen ohne den Einsatz zusätzlicher Hardware zu erzeugen.
- Deshalb verarbeitet das erfindungsgemäße System ausgewählte Segmente der stereoskopischen Bilder im Vergleich zur Verarbeitung der Gesamtbilder häufiger, um Echtzeitdaten zu erzeugen, die kennzeichnend für die Bewegung des Insassen während eines Zusammenstoßes sind. Zu diesem Zweck führt der Mikroprozessor 44 ferner, beispielsweise periodisch im Abstand einer Millisekunde, eine Interruptroutine aus, wie in Fig. 7 veranschaulicht. Diese Interruptroutine beginnt in Schritt 120, indem der Mikroprozessor 44 über die Speicherschnittstelle 40 ein Befehlssignal an den Abstandsunterprozessor 32 ausgibt, der den Abstandsdetektor 36 veranlasst, einen vordefinierten Bereich der stereosko pischen Bilder von den Videokameras 26 und 28 zu erhalten und zu verarbeiten. Der vordefinierte Bereich eines jeden Bildes kann innerhalb eines jeden Bildes zwei Segmente mit zehn Spalten von Bildelementen umfassen, die jeweils den Zentren der normalen Sitzpositionen für die sitzenden Personen entsprechen. Diese Segmente werden anschließend verarbeitet, um Parameter für die Steuerung der Airbags zu bestimmen, die diesen zwei Sitzpositionen zugeordnet sind. Aus Gründen der Übersichtlichkeit wird die Verarbeitung der Bildsegmente für nur eine der Sitzpositionen beschrieben.
- In Schritt 122 lokalisiert der Abstandsdetektor 36 in der gleichen Weise, wie dies im Falles des zuvor beschriebenen Gesamtbildes geschieht, übereinstimmende Punkte oder Merkmale in den Bildsegmenten aus jeder Kamera. Anschließend wird in Schritt 124 der Abweichungsbetrag x der übereinstimmenden Punkte in den Segmenten des stereoskopischen Bildes ermittelt und in Schritt 126 verwendet, um Abstandsdaten für das Bildsegment zu berechnen. In Schritt 128 werden diese Abstandsdaten in einem Bereich des Abstandsbildspeichers 38 gespeichert. Der Abstandsbildspeicher 38 weist zwei Bereiche zusätzlicher Speicheradressen auf, die der Speicherung von Abstandsdaten der Bildsegmente dienen. Ein Bereich speichert Daten des zuletzt gewonnenen Satzes von Bildsegmenten und der andere Bereich enthält vorhergehende Abstandsdaten der Bildsegmente, wobei jede neue Gruppe von Daten den Speicherabschnitt überschreibt, der die ältesten Abstandsdaten enthält.
- In dem Abstandsbildverarbeitungssystem 34 übernimmt der Mikroprozessor 44 dann die Verarbeitung, indem er in Schritt 130 die Veränderung des Abstands zwischen den zwei gespeicherten Sätzen von Abstandsdaten berechnet. In Schritt 132 werden die Änderungsdaten in dem Ausgabespeicher 50 gespeichert. Da die Abstandsdaten in gleichmäßigen Intervallen, von beispielsweise einer Millisekunde, erfasst werden, entsprechen die Änderungen unmittelbar einer Änderungsrate des Abstands oder mit anderen Worten der Geschwindigkeit, mit der sich das auf dem Sitz befindliche Objekt bewegt. Die Geschwindigkeit kann berechnet und in dem Ausgabespeicher 50 gespeichert werden, oder der Airbag- Controller 54 kann einfach unmittelbar auf die Daten der Abstandsänderung zugreifen. In beiden Fällen entsprechen diese, in dem Ausgabespeicher gespeicherten Daten der Geschwindigkeit des Objekts.
- Über die Interfaceschaltung 52 werden die für die Geschwindigkeit maßgebenden Daten dem Airbag-Controller 54 zur Verfügung gestellt. Der Airbag-Controller 54 steuert in Abhängigkeit von der Geschwindigkeit, mit der sich ein Fahrzeuginsasse momentan dem entsprechenden Airbag während eines Unfalls nähert, die Geschwindigkeit, mit der die Airbags 58 aufgeblasen werden.
Claims (19)
1. Stereoskopisches Objekterfassungssystem zur
Erfassung und Bestimmung von Kenngrößen von auf einem Sitz
(16) eines Kraftfahrzeugs (10) befindlichen Objekten, wobei
zu dem stereoskopischen Objekterfassungssystem gehören:
eine Kameraanordnung (24), die dazu dient, ein erstes
und zweites Bild von dem Sitz (16) zu erzeugen, in denen
Bildmerkmale zwischen dem ersten und zweiten Bild um ein
Maß verschoben sind, das von dem Abstand abhängig ist, in
dem sich die Bildmerkmale von der Kameraanordnung (24)
entfernt befinden;
ein Bildanalysator (34), der mit der Kameraanordnung
(24) in Verbindung steht und der das erste und zweite Bild
verarbeitet, um die Anwesenheit eines Objekts auf dem Sitz
(16) festzustellen und um die Größe des Objekts in
Abhängigkeit von einem gegebenen Betrag zu ermitteln, um den das
Objekt zwischen dem ersten und zweiten Bild verschoben ist;
und
eine mit dem Bildanalysator (34) in Verbindung
stehende Ausgabevorrichtung (52), die ein Signal erzeugt, falls
die Anwesenheit eines Objekts auf dem Sitz (16)
festgestellt wird, wobei das Signal für die Größe des auf dem
Sitz (16) befindlichen Objekts kennzeichnend ist.
2. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem die Kameraanordnung (24) das erste und
zweite Bild im Wesentlichen gleichzeitig erzeugt.
3. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem die Kameraanordnung (24) einen Bildsensor
(26, 28) umfasst, bei dem ein willkürlicher Zugriff auf
Seg
mente des ersten und zweiten Bildes möglich ist.
4. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem die Kameraanordnung (24) ein Paar von
Kameras (26, 28) umfasst.
5. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem die Kameraanordnung (24) eine einzelne
Abbildungsvorrichtung (26 oder 28) aufweist, die das erste
und zweite Bild als räumlich nebeneinanderliegende
Abbildungen erzeugt.
6. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, das ferner einen mit der Kameraanordnung (24)
verbundenen Prozessor (32) enthält, der für mehrere
Merkmale in dem ersten und zweiten Bild deren Abstände zu der
Kameraanordnung (24) berechnet, wobei die Abstandswerte in
Abhängigkeit von einer gegebenen Größe der Verschiebung
ermittelt werden, um die die Vielzahl von Bildelementen
zwischen dem ersten und zweiten Bild verschoben sind.
7. Stereoskopisches Objekterfassungssystem nach
Anspruch 6, bei dem der Bildanalysator (34) die Abstandswerte
für das Feststellen der Anwesenheit eines Objekts auf dem
Sitz (16) verwendet.
8. Stereoskopisches Objekterfassungssystem nach
Anspruch 6, bei dem der Bildanalysator (34) die Abstandswerte
für das Ermitteln der Größe des auf dem Sitz (16)
befindlichen Objekts verwendet.
9. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem der Bildanalysator (34) die Abstandswerte
verwendet, um für wenigstens einen Teil des auf dem Sitz
(16) befindlichen Objekts einen Näherungswert des Volumens
zu ermitteln.
10. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, das ferner einen Bildanalysator (34) enthält, der
von der Kameraanordnung (24) ausgegebene Daten verwendet,
um eine Bewegung eines auf dem Sitz (16) befindlichen
Objekts zu erfassen.
11. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, das ferner eine Mustererkennungsvorrichtung (100-106)
enthält, die Daten aus der Kameraanordnung (24)
entgegennimmt und die Daten verarbeitet, um das Vorkommen
eines vordefinierten Musters entweder in dem ersten und/oder
in dem zweiten Bild zu erkennen.
12. Stereoskopisches Objekterfassungssystem nach
Anspruch 11, bei dem die Mustererkennungsvorrichtung (100-106)
einen Speicher (48) zur Speicherung eines
Referenzmusters und einen Prozessor (34, 104) enthält, der ein
Vorkommen des Referenzmusters anhand der von der
Kameraanordnung (24) ausgegebenen Daten erkennt.
13. Stereoskopisches Objekterfassungssystem nach
Anspruch 11, bei dem das Referenzmuster für einen Kindersitz
steht.
14. Stereoskopisches Objekterfassungssystem nach
Anspruch 12, bei dem das Referenzmuster ein äußeres Merkmal
eines Fahrzeugführers repräsentiert.
15. Stereoskopisches Objekterfassungssystem nach An-
Spruch 1, zu dem ferner eine mit dem Ausgabegerät (52)
verbundene Vorrichtung (54) gehört, die in Abhängigkeit von
dem Signal die Entfaltung eines Airbags (58)
regelt/steuert.
16. Stereoskopisches Objekterfassungssystem nach
Anspruch 15, bei dem die Vorrichtung (54) eine
Geschwindigkeit regelt/steuert, mit der der Airbag (58) aufgeblasen
wird.
17. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, das ferner einen mit dem Ausgabegerät (52)
verbundenen Mechanismus (54) enthält, der in Abhängigkeit von
dem Signal den Betrieb einer Vorrichtung (58) des
Kraftfahrzeugs (10) regelt/steuert.
18. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem der Bildanalysator (34) eine
Bewegungsgeschwindigkeit des Objekts erfasst.
19. Stereoskopisches Objekterfassungssystem nach
Anspruch 1, bei dem der Bildanalysator (34) das erste und
zweite Bild verarbeitet, um Daten über den Bewegungszustand
des Objekts zu erzeugen, und ferner eine mit dem
Ausgabegerät (52) verbundene Vorrichtung (54) aufweist, um in
Abhängigkeit von den Bewegungsdaten den Aufblasvorgang eines
Airbags (58) zu regeln/steuern.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/872,836 US6757009B1 (en) | 1997-06-11 | 1997-06-11 | Apparatus for detecting the presence of an occupant in a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69809334D1 DE69809334D1 (de) | 2002-12-19 |
DE69809334T2 true DE69809334T2 (de) | 2003-09-18 |
Family
ID=25360396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69809334T Expired - Fee Related DE69809334T2 (de) | 1997-06-11 | 1998-06-10 | Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug |
Country Status (5)
Country | Link |
---|---|
US (1) | US6757009B1 (de) |
EP (1) | EP0885782B1 (de) |
JP (1) | JPH1115980A (de) |
DE (1) | DE69809334T2 (de) |
ES (1) | ES2186051T3 (de) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6553296B2 (en) | 1995-06-07 | 2003-04-22 | Automotive Technologies International, Inc. | Vehicular occupant detection arrangements |
US6507779B2 (en) | 1995-06-07 | 2003-01-14 | Automotive Technologies International, Inc. | Vehicle rear seat monitor |
US6772057B2 (en) | 1995-06-07 | 2004-08-03 | Automotive Technologies International, Inc. | Vehicular monitoring systems using image processing |
US6442465B2 (en) | 1992-05-05 | 2002-08-27 | Automotive Technologies International, Inc. | Vehicular component control systems and methods |
US6856873B2 (en) | 1995-06-07 | 2005-02-15 | Automotive Technologies International, Inc. | Vehicular monitoring systems using image processing |
US7164117B2 (en) | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US20070135982A1 (en) | 1995-06-07 | 2007-06-14 | Automotive Technologies International, Inc. | Methods for Sensing Weight of an Occupying Item in a Vehicular Seat |
US7734061B2 (en) * | 1995-06-07 | 2010-06-08 | Automotive Technologies International, Inc. | Optical occupant sensing techniques |
JP3532772B2 (ja) * | 1998-09-25 | 2004-05-31 | 本田技研工業株式会社 | 乗員の乗車状態検出装置 |
EP1031475A3 (de) * | 1999-02-26 | 2002-01-23 | Breed Automotive Technology, Inc. | System zum Schutz gegen einen Heckaufprall |
JP3751467B2 (ja) * | 1999-03-30 | 2006-03-01 | 株式会社東芝 | 車載機器制御装置および方法 |
DE19932520A1 (de) * | 1999-07-12 | 2001-02-01 | Hirschmann Austria Gmbh Rankwe | Vorrichtung zur Steuerung eines Sicherheitssystems |
KR20020029128A (ko) * | 1999-09-10 | 2002-04-17 | 칼 하인쯔 호르닝어 | 시트에 설치된 승객 보호 장치의 작동을 제어하는 방법 및 장치 |
EP1297486A4 (de) * | 2000-06-15 | 2006-09-27 | Automotive Systems Lab | Besetzungssensor |
GB2366862B (en) * | 2000-09-14 | 2004-09-22 | Autoliv Dev | Improvements in or relating to a camera arrangement |
US6552550B2 (en) | 2000-09-29 | 2003-04-22 | Intelligent Mechatronic Systems, Inc. | Vehicle occupant proximity sensor |
DE10063697B4 (de) | 2000-12-20 | 2006-07-13 | Siemens Ag | Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme |
US6856694B2 (en) * | 2001-07-10 | 2005-02-15 | Eaton Corporation | Decision enhancement system for a vehicle safety restraint application |
DE10138481A1 (de) * | 2001-08-04 | 2003-02-27 | Conti Temic Microelectronic | Verfahren zum Betrieb der Funktionseinheiten eines Kraftfahrzeugs und Sicherungseinrichtung für die Funktionseinheiten eines Kraftfahrzeugs |
JP4908704B2 (ja) * | 2001-09-27 | 2012-04-04 | 株式会社東海理化電機製作所 | 車両室内監視装置 |
DE10151417A1 (de) * | 2001-10-18 | 2003-05-08 | Siemens Ag | System und Verfahren zum Verarbeiten von Bilddaten |
JP3758034B2 (ja) * | 2001-10-30 | 2006-03-22 | 株式会社デンソー | 車両用乗員保護装置 |
DE10156535C1 (de) | 2001-11-14 | 2003-06-26 | Siemens Ag | Leistungsschalter |
LU90912B1 (de) | 2002-04-19 | 2003-10-20 | Iee Sarl | Sicherheitsvorrichtung fuer ein Fahrzeug |
LU90914B1 (de) * | 2002-04-26 | 2003-10-27 | Iee Sarl | Sicherheitsvorrichtung fuer ein Fahrzeug |
EP1497160B2 (de) * | 2002-04-19 | 2010-07-21 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Sicherheitsvorrichtung für ein fahrzeug |
DE10246318A1 (de) * | 2002-10-04 | 2004-04-15 | Bayerische Motoren Werke Ag | Sitzeinstellvorrichtung |
DE10259795A1 (de) | 2002-12-19 | 2004-07-08 | Siemens Ag | Bilderzeugungsvorrichtung zum Einbau im Dachbereich oder im Aussenspiegel eines Kraftfahrzeuges |
JP4355899B2 (ja) * | 2003-05-15 | 2009-11-04 | トヨタ自動車株式会社 | 車両デバイス制御装置 |
DE10326425B4 (de) * | 2003-06-10 | 2008-12-11 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur räumlichen Bilderfassung |
US7263209B2 (en) * | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
US8553113B2 (en) * | 2003-08-20 | 2013-10-08 | At&T Intellectual Property I, L.P. | Digital image capturing system and method |
JP2005067281A (ja) * | 2003-08-20 | 2005-03-17 | Toshiba Corp | 距離検出装置、エアバッグ制御装置および距離検出方法 |
US20070046779A1 (en) * | 2003-11-11 | 2007-03-01 | David Sourlier | An installation for recording travel and/or traffic |
DE102004040558A1 (de) * | 2004-08-21 | 2006-02-23 | A.D.C. Automotive Distance Control Systems Gmbh | Optisches Objekterkennungssystem |
JP2006176075A (ja) * | 2004-12-24 | 2006-07-06 | Tkj Kk | 検知システム、乗員保護装置、車両、検知方法 |
US7372996B2 (en) * | 2004-12-27 | 2008-05-13 | Trw Automotive U.S. Llc | Method and apparatus for determining the position of a vehicle seat |
US7283901B2 (en) | 2005-01-13 | 2007-10-16 | Trw Automotive U.S. Llc | Controller system for a vehicle occupant protection device |
JP2006205844A (ja) * | 2005-01-27 | 2006-08-10 | Aisin Seiki Co Ltd | 乗員の頭部位置判定装置、及び該判定装置を備えた乗員保護装置 |
JP2006309455A (ja) * | 2005-04-27 | 2006-11-09 | Tokai Rika Co Ltd | 特徴点検出装置及び距離測定装置 |
DE102005025963A1 (de) * | 2005-05-23 | 2006-12-14 | Conti Temic Microelectronic Gmbh | Verfahren zur Erfassung von Objekten auf dem Sitz eines Fahrzeugs |
US7472007B2 (en) * | 2005-09-02 | 2008-12-30 | Delphi Technologies, Inc. | Method of classifying vehicle occupants |
JP2007085745A (ja) * | 2005-09-20 | 2007-04-05 | Fuji Heavy Ind Ltd | 物体監視装置 |
US20090295921A1 (en) * | 2005-10-12 | 2009-12-03 | Pioneer Corporation | Vehicle-mounted photographing device and method of measuring photographable range of vehicle-mounted camera |
DE102005056265A1 (de) * | 2005-11-14 | 2007-05-16 | Pilz Gmbh & Co Kg | Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage |
JP5041458B2 (ja) * | 2006-02-09 | 2012-10-03 | 本田技研工業株式会社 | 三次元物体を検出する装置 |
JP4898261B2 (ja) * | 2006-04-04 | 2012-03-14 | タカタ株式会社 | 対象物検出システム、作動装置制御システム、車両、対象物検出方法 |
US20080075327A1 (en) * | 2006-09-21 | 2008-03-27 | Honeywell International Inc. | Method and system for object characterization based on image volumetric determination |
JP5030580B2 (ja) * | 2006-12-27 | 2012-09-19 | タカタ株式会社 | 車両用作動システム、車両 |
US20100077437A1 (en) * | 2008-09-25 | 2010-03-25 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Vehicle entertainment system with video surround |
CN102985945B (zh) * | 2011-06-02 | 2016-09-07 | 松下知识产权经营株式会社 | 物体检测装置、物体检测方法 |
FR3039461B1 (fr) * | 2015-07-30 | 2018-12-07 | Valeo Systemes Thermiques | Systeme de commande pour installation de conditionnement d'air d'un vehicule automobile |
JP6519499B2 (ja) * | 2016-02-23 | 2019-05-29 | 株式会社デンソー | 車両用システム及びコンピュータプログラム |
JP6798299B2 (ja) * | 2016-12-16 | 2020-12-09 | アイシン精機株式会社 | 乗員検出装置 |
US10776640B2 (en) | 2017-01-06 | 2020-09-15 | International Business Machines Corporation | Enhanced vehicle monitoring |
EP3598396A1 (de) * | 2018-07-20 | 2020-01-22 | Rothenbühler, Rudolf | Computergestütztes verfahren zum analysieren personenbezogener unfalldaten |
JP2020053819A (ja) * | 2018-09-26 | 2020-04-02 | アイシン精機株式会社 | 撮像システム、撮像装置、および信号処理装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5845000A (en) | 1992-05-05 | 1998-12-01 | Automotive Technologies International, Inc. | Optical identification and monitoring system using pattern recognition for use with vehicles |
US6039139A (en) * | 1992-05-05 | 2000-03-21 | Automotive Technologies International, Inc. | Method and system for optimizing comfort of an occupant |
US4843463A (en) * | 1988-05-23 | 1989-06-27 | Michetti Joseph A | Land vehicle mounted audio-visual trip recorder |
SE468462B (sv) | 1989-05-31 | 1993-01-25 | Berit Lindqvist | Metod foer stereofotografisk dokumentation och fotogrammetrisk maetning inom tandvaarden samt anordning foer genomfoerande av metoden |
US5193124A (en) * | 1989-06-29 | 1993-03-09 | The Research Foundation Of State University Of New York | Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images |
US5835613A (en) * | 1992-05-05 | 1998-11-10 | Automotive Technologies International, Inc. | Optical identification and monitoring system using pattern recognition for use with vehicles |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
WO1994022693A1 (en) * | 1993-03-31 | 1994-10-13 | Automotive Technologies International, Inc. | Vehicle occupant position and velocity sensor |
JP3522317B2 (ja) | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
US5471515A (en) | 1994-01-28 | 1995-11-28 | California Institute Of Technology | Active pixel sensor with intra-pixel charge transfer |
US5914610A (en) * | 1994-02-03 | 1999-06-22 | Massachusetts Institute Of Technology | Apparatus and method for characterizing movement of a mass within a defined space |
US5531472A (en) | 1995-05-01 | 1996-07-02 | Trw Vehicle Safety Systems, Inc. | Apparatus and method for controlling an occupant restraint system |
US5770997A (en) * | 1995-06-26 | 1998-06-23 | Alliedsignal Inc. | Vehicle occupant sensing system |
CA2190674A1 (en) | 1995-12-27 | 1997-06-28 | Alexander George Dickinson | Inflatable restraint system including an optical image sensor |
US5871232A (en) * | 1997-01-17 | 1999-02-16 | Automotive Systems, Laboratory, Inc. | Occupant position sensing system |
-
1997
- 1997-06-11 US US08/872,836 patent/US6757009B1/en not_active Expired - Fee Related
-
1998
- 1998-06-10 EP EP98110617A patent/EP0885782B1/de not_active Expired - Lifetime
- 1998-06-10 DE DE69809334T patent/DE69809334T2/de not_active Expired - Fee Related
- 1998-06-10 ES ES98110617T patent/ES2186051T3/es not_active Expired - Lifetime
- 1998-06-11 JP JP10163624A patent/JPH1115980A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JPH1115980A (ja) | 1999-01-22 |
EP0885782B1 (de) | 2002-11-13 |
US6757009B1 (en) | 2004-06-29 |
DE69809334D1 (de) | 2002-12-19 |
ES2186051T3 (es) | 2003-05-01 |
EP0885782A1 (de) | 1998-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69809334T2 (de) | Vorrichtung zur Feststellung der Anwesenheit von einem Fahrgast in einem Kraftfahrzeug | |
DE10158415C2 (de) | Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum | |
DE112015002934B4 (de) | Vorrichtung zum Erfassen eines Fahrunvermögenzustands eines Fahrers | |
DE602006001012T2 (de) | Objekterkennung und Fussgänger Schutzsystem | |
DE19947062B4 (de) | Vorrichtung zum Erfassen eines Objekts unter Verwendung eines Differentialbildes | |
DE4042721C2 (de) | Verfahren zum Auslösen von Insassenschutzvorrichtungen | |
DE19654550B4 (de) | In einem Fahrzeug montierte Haltungs-Stützvorrichtung und Verfahren zur Stützung bzw. Stabilisierung der Haltung eines Fahrzeuginsassen | |
DE602005005225T2 (de) | Vorrichtung zum Auswählen zwischen Anwendungen einer Fahrzeuginnenraumkamera | |
DE102018106687A1 (de) | Überwachen einer fahrzeugkabine | |
DE102018220286A1 (de) | Ablenkungserfassungssystem | |
DE69634847T2 (de) | Verfahren und Vorrichtung zum Abfühlen von Aufprall-Crashzuständen mit Absicherungsfunktion | |
DE112015003672T5 (de) | Fahrerüberwachungsvorrichtung | |
DE102017214009B4 (de) | Verfahren und Vorrichtung zur Erkennung der Anwesenheit und/oder Bewegung eines Fahrzeuginsassen | |
DE102018202450B4 (de) | Fahrzeuginsassenschutzvorrichtung | |
EP1069001A1 (de) | Vorrichtung zur Steuerung eines Sicherheitsystems | |
EP3572290A1 (de) | Innenüberwachung für sicherheitsgurteinstellung | |
EP1246741B1 (de) | Verfahren und vorrichtung zur sitzbelegungserkennung mittels videosensorik und fussraumsensorik | |
DE102006021824B4 (de) | Verfahren und Vorrichtung zur Steuerung einer betätigbaren Rückhaltvorrichtung unter Verwendung von XY Seitensatellitenbeschleunigungsmessern | |
EP1632403A1 (de) | Passagierschutzeinrichtung in einem Fahrzeug | |
DE102006041725A1 (de) | Verfahren und Vorrichtung zum Betrieb einer Vor-Aufprall-Erfassungsanordnung mit Kontaktsensor | |
DE102005013164B4 (de) | Verfahren und Vorrichtung zur Steuerung eines passiven Rückhaltesystems | |
DE19945411A1 (de) | Insassenschutzsystem bei Rückwärtsaufprall | |
DE102021000509A1 (de) | Verfahren zum Betrieb eines Fahrzeugs | |
DE102019122808A1 (de) | Überwachungseinrichtung für fahrzeuginsassen und schutzsystem für fahrzeuginsassen | |
DE102019122809A1 (de) | Überwachungseinrichtung für fahrzeuginsassen und schutzsystem für fahrzeuginsassen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8363 | Opposition against the patent | ||
8339 | Ceased/non-payment of the annual fee |