DE60311423T2 - Kopfpositionssensor - Google Patents

Kopfpositionssensor Download PDF

Info

Publication number
DE60311423T2
DE60311423T2 DE60311423T DE60311423T DE60311423T2 DE 60311423 T2 DE60311423 T2 DE 60311423T2 DE 60311423 T DE60311423 T DE 60311423T DE 60311423 T DE60311423 T DE 60311423T DE 60311423 T2 DE60311423 T2 DE 60311423T2
Authority
DE
Germany
Prior art keywords
image
occupant
head
vehicle
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60311423T
Other languages
English (en)
Other versions
DE60311423D1 (de
Inventor
Tej Paul Malvern KAUSHAL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qinetiq Ltd
Original Assignee
Qinetiq Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0202502A external-priority patent/GB0202502D0/en
Priority claimed from GB0202501A external-priority patent/GB0202501D0/en
Priority claimed from GB0202504A external-priority patent/GB0202504D0/en
Priority claimed from GB0202503A external-priority patent/GB0202503D0/en
Application filed by Qinetiq Ltd filed Critical Qinetiq Ltd
Publication of DE60311423D1 publication Critical patent/DE60311423D1/de
Application granted granted Critical
Publication of DE60311423T2 publication Critical patent/DE60311423T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01516Passenger detection systems using force or pressure sensing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01516Passenger detection systems using force or pressure sensing means
    • B60R21/0152Passenger detection systems using force or pressure sensing means using strain gauges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01534Passenger detection systems using field detection presence sensors using electromagneticwaves, e.g. infrared
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Air Bags (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Vehicle Body Suspensions (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

  • Diese Erfindung betrifft insbesondere einen Kopfpositionssensor zur Verwendung in einem Fahrzeug, wie einem Automobil, in Verbindung mit Steuerungen zum Einsatz von Sicherheitsrückhalte-Airbags, und im Allgemeinen ein Sensor-Array, das in anderen Abbildungs- und Erfassungssystemen nützlich ist, und ein Verfahren zum Vorsehen von Information, um Sicherheits-Airbags in einem Fahrzeug zu steuern.
  • Sicherheitsrückhalte-Airbagsysteme in Automobilen werden momentan eingesetzt ohne Wissen, ob es einen Insassen in dem Sitz gibt, oder über die Position seines Kopfes. Der Gesetzgeber führt wahrscheinlich eine Bestimmung für eine Insassenpositionserfassung ein. Erforschte Technologien umfassen Kameras für das sichtbare Band mit einer Beleuchtung zum Betrieb in der Nacht, kapazitive Sensoren, akustische Sensoren und so weiter. Das ideale System wäre ein System wie eine Kamera für das sichtbare Band, aber ohne Beleuchtung, das unter US$ 20 kostet.
  • Das Problem der Bestimmung der Position eines Fahrers (oder eines anderen Autoinsassen) wird gelöst gemäß dieser Erfindung durch die Verwendung eines thermischen Abbildungssystems (Thermographie – thermal imaging) zusammen mit einer Verarbeitung, um die Position des Kopfes des Fahrers zu bestimmen in Relation zu einem oder mehreren in dem Fahrzeug vorhandenen Airbag(s). Eine Thermographie, die in dem Wellenlängenband von 3–14 μm arbeitet, verwendet die natürliche Körperstrahlung zur Erfassung, ohne die Notwendigkeit einer Beleuchtung, im Gegensatz zu einer herkömmlichen „nahes Infrarot"-Abbildung. Thermische Sensoren sind passiv und werden nicht durch Beleuchtungsverhältnisse gestört und können in absoluter Dunkelheit arbeiten.
  • Andere Erfassungstechniken sind aktiv und geben eine Strahlung in der einen oder anderen Form ab, z.B. Ultraschallstrahlen, elektromagnetische Wellen, nahes Infrarotlicht. Siehe zum Beispiel EP-1167126A2, das Infrarot-Emitter einsetzt, um eine Person zu illuminieren und eine Kopfposition zu verfolgen unter Verwendung einer Gesichtsmerkmalsbildabtastung; US-6270116-B1 verwendet einen Ultraschall- oder elektromagnetischen oder Infrarot-Emitter und geeignete Sensoren, um die Position einer Person zu erfassen; US-6254127-B1 setzt ein Ultraschall- oder kapazitives System in einem Lenkrad ein, um eine Position zu lokalisieren; US-5691693 verwendet zumindest 3 kapazitive Sensoren, um eine Kopfposition und eine Bewegung zu erfassen; US-5785347 strahlt eine Vielzahl von Infrarotstrahlen aus, um Ort und Position eines Sitzinsassen zu bestimmen; US-6324453-B1 sendet elektromagnetische Wellen in den Fahrgastraum.
  • Anderer Stand der Technik spezifiziert auch die Verwendung von mehreren Sensoren pro Fahrzeuginsasse, z.B. US-5330226, das ein Ultraschall- und ein Infrarot-System zusammen verwendet.
  • Techniken, die passive thermische Infrarot-Ansätze einsetzen, werden in DE-19822850 und JP-20011296184 dargelegt.
  • Das Patent DE-19822850 spezifiziert die Erhebung eines thermischen Abbildes von der frontalen Richtung, um ein Kopf- und Schultern Porträt-ähnliches Bild des Insassen zu erzeugen und verwendet zwei Temperaturschwellen, um Teile des Bilds als Kopf oder Körper zu klassifizieren. Dieses System liefert keine Information hinsichtlich der Nähe zu einem frontalen Airbag und kann einen kalibrierten Sen sor erfordern, der absolute Temperaturen messen kann. Leider arbeitet ein derartiges System nur, wenn das Innere des Autos kühl ist. An warmen oder heißen Tagen können die Innentemperaturen in dem Auto die Hauttemperaturen leicht übersteigen.
  • Das Patent JP-20011296184 beschreibt eine Temperaturkompensationstechnik unter Verwendung eines Erfassungselements, das keine thermische Strahlung von der Szene empfängt. Dieses maskierte Element fühlt auf der Substrattemperatur des Sensorchips und bildet somit eine Referenz, zu der Änderungen in der Szenerietemperatur gemessen werden können. Dies ist erforderlich, um ein System zu bilden, das eine absolute Temperatur in der Szene genauer messen kann, und ist hilfreich zur Steuerung einer Heizung und der Klimaanlage. Das Patent beschreibt keine Erfindung, die dem kompensierten Sensor ermöglicht, die Aufgabe der Erfassung einer Insassenposition zu lösen.
  • Die vorliegende Patentanmeldung beschreibt das Sensorsystem und Algorithmen, die erforderlich sind, um eine Fähigkeit zur Erfassung einer Insassenposition von einer passiven thermischen Infrarotkamera vorzusehen. Der beschriebene Sensor quantifiziert die Temperatur nicht, wie JP-20011296184, und verwendet keine Temperaturschwellen, wie DE-19822850. Es verwendet auch einen einzelnen Sensor pro Insasse, im Gegensatz zu US-5330226.
  • Die Erfindung wird durch die Merkmale des Anspruchs 1 definiert. Insbesondere weist ein Kopfpositionssensor zur Verwendung in einem Fahrzeug in Verbindung mit Steuerungen zum Einsatz von Sicherheitsrückhalte-Airbags auf:
    ein Array aus passiven thermischen Infrarot-Detektoren,
    ein Linsensystem zur Abbildung eines Sitzinsassen und einer Position von zumindest einem Airbag,
    einen Prozessor zum Bestimmen der Existenz eines Insassen in einem Sitz und der Position des Kopfes des Insassen relativ zu zumindest einem Airbag aus einem thermischen Bild des Arrays durch Konvertieren der Entfernung in Bildpixeln in eine Schätzung einer realen Entfernung in dem Fahrzeug durch einen einfachen Multiplizierer.
  • Vorzugsweise sind das Detektor-Array und der Prozessor integral.
  • In einem weiteren Ausführungsbeispiel umfasst der Sensor Mittel zum Bestimmen der Handposition des Fahrers und somit eine Position des Lenkrads.
  • Vorzugsweise umfasst der Sensor Mittel zum Bestimmen der Position des Lenkrads und somit der Position eines vorderen Airbags aus Merkmalen in einem thermischen Abbild des Fahrzeuginneren.
  • Das Detektor-Array kann ein x, y-Array von Detektorelementen sein, wobei x und y in dem Bereich von 24 bis einschließlich 96 liegen, vorzugsweise ungefähr 32 oder 64.
  • Der Sensor kann auch verwendet werden, um zugehörige Airbags zu steuern, d.h. das Timing und/oder die Menge des Aufblasens nachfolgend auf einen Unfall. Der Sensor kann verwendet werden, um Airbags nur AN zu schalten, wenn ein Sitz besetzt ist; normalerweise bleibt ein Airbag in einem AN-Zustand unabhängig davon, ob ein Sitz, Fahrer oder Beifahrer, besetzt ist oder nicht, was zum Beispiel dazu führen kann, dass ein Airbag eines Passagiers aufgeht auch bei Abwesenheit eines Passagiers. Der Sensor kann auch verwendet werden, um einen Passagier-Airbag in einem AUS-Zustand zu halten, wenn ein Sitz zum Beispiel von einem Kinder- oder Baby-Sitz besetzt ist oder von Gepäck.
  • Der Sensor kann in der „A"-Säule neben dem Kopf des Fahrers angebracht werden oder in der Nähe des zentralen Lichtblocks angebracht werden. Eine Weitwinkellinse wird verwendet, z.B. ungefähr 90° bis 120°, so dass sich der Kopf eines Insassen und der Platz des Airbags in dem Sichtfeld befinden.
  • Der Prozessor kann Mittel zur Erfassung des Kopfes eines Fahrers unter Verwendung einer Forminformation umfassen. Zum Beispiel durch Falten kreisförmiger symmetrischer Filter mit ausgewählten Teilen des thermischen Bildes.
  • Der Prozessor kann auch die Körpermasse eines Sitzinsassen bestimmen durch Berücksichtigen (Zählen) des Bildbereichs, alleine oder in Verbindung mit einem Gewichtsensor in einem Sitz. Eine derartige Information kann dann verwendet werden zusammen mit der Kopfposition, um die Menge des Aufblasens eines Airbags zu steuern.
  • Zusätzliche Sensoren können für andere Insassen des Fahrzeugs vorgesehen werden. Zum Beispiel kann sich ein zweiter Sensor an der äußersten linken Seite (nearside (righthand driving)) bzw. der äußersten rechten Seite (nearside (lefthand driving)) des Armaturenbretts des Fahrzeugs befinden, um einen Passagier in dem Vordersitz zu erfassen, sowohl Besetzung als auch Position. Auch können Sensoren in der „B-Säule" oder am Dach angebracht sein, um Passagiere auf den hinteren Sitzen zu erfassen und zugehörige Airbags zu steuern.
  • Die Entfernung zwischen dem Kopf und entweder den vorderen oder den seitlichen Airbags kann berechnet werden aus einem einzelnen Sensorbild durch Lokalisieren von Kopf- und Airbag-Positionen in einem einzelnen Bild und direktes Schätzen ihres Abstands. Wenn mehrere Sensoren verwendet werden, dann können auch zusätzlich eine Triangulation und ein Stereoabgleich verwendet werden.
  • Gemäß einem weiteren Aspekt dieser Erfindung wird nun ein Verfahren zum Vorsehen einer Information vorgeschlagen, um Sicherheits-Airbags in einem Fahrzeug zu steuern, mit Steuerungen zum Einsatz von Sicherheits-Rückhalte-Airbags, wobei das Verfahren die Schritte von Anspruch 8 umfasst.
  • Vorzugsweise umfasst das Verfahren den Schritt des Bestimmens einer Position des Lenkrads aus der Position der Hände des Fahrers in dem thermischen Bild. Vorteilhafterweise weist das Verfahren den Schritt einer Schätzung der Körpermasse des Insassen aus der Größe des Insassen in dem thermischen Bild auf. Alternativ oder zusätzlich wird die Körpermasse aus der Größe des Insassen in dem thermischen Bild zusammen mit einer Gewichtsmessung von dem Sitz des Fahrzeugs geschätzt.
  • In einem bevorzugten Ausführungsbeispiel wird die Kopfposition in drei Dimensionen geschätzt durch und unter Verwendung einer erfassten Kopfgröße, um eine Entfernung von dem Sensor zu schätzen, und durch Verwendung einer relativen Position des Kopfes in dem thermischen Bild, um die anderen zwei der drei Dimensionen zu bestimmen.
  • In einem weiteren Ausführungsbeispiel wird die Kopfposition durch Verwendung von zwei Arrays von thermischen Abbildungsdetektoren und Triangulationsberechnungen erlangt.
  • Eine Form der Erfindung wird nun auf beispielhafte Weise unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei:
  • 1 eine schematische Aufsicht eines Fahrzeugs zeigt;
  • 2 relative Positionen des Kopfes eines Fahrers, seitliche und vordere Airbags in der Abbildung zeigt;
  • 3 Bilder A bis F von thermischen Szenen des Inneren eines warmen Fahrzeugs zeigt, das erste Bild A ohne einen Fahrer, dann das Bild B mit einem Fahrer, und die Bilder C bis F die verschiedenen Schritte, die bei der Verarbeitung des Bilds B unternommen werden, um eine Kopfposition relativ zu einem Airbag in einem Lenkrad zu lokalisieren und zu messen;
  • 4 einen ersten Algorithmus zur Verarbeitung der Ausgaben von jedem Detektor in einem Array von Detektoren zeigt;
  • 57 eine Sequenz von thermischen Abbildern eines Raums zeigen, wobei eine Person den Raum betritt;
  • 8 das Bild von 7 nach einer Schwellenverarbeitung zeigt;
  • 9 das Bild von 7 nach einer Bilddifferenzierungsverarbeitung zeigt;
  • 10 ein teilweise verarbeitetes Bild zeigt, das die Differenz zwischen einem Referenzbild und einem aktuellen Bild ist;
  • 11 ein verarbeitetes Bild zeigt, wo ein Rauschen über eine Schwelle entfernt wurde (thresholded out) und die resultierende Maske verwendet wird, um ein aktuelles Bild zu erkennen (key);
  • 12 einen zweiten Algorithmus zur Verarbeitung der Ausgaben von jedem Detektor in. einem Array von Detektoren zeigt;
  • 13 eine schematische Ansicht eines Arrays von Detektoren mit zugehörigen Schaltungen zeigt;
  • 14 einen Querschnitt eines Teils von 13 zeigt;
  • 15 ein schematisches Diagramm mit Verbindungen zu jedem Detektor zeigt;
  • 16 eine Ansicht einer Szene ist, die mit einem 2 × 2-Detektor-Array aufgenommen ist;
  • 17 eine Ansicht einer Szene ist, die mit einem 4 × 4-Detektor-Array aufgenommen ist;
  • 18 eine Ansicht einer Szene ist, die mit einem 8 × 8-Detektor-Array aufgenommen ist;
  • 19 eine Ansicht einer Szene ist, die mit einem 16 × 16-Detektor-Array aufgenommen ist;
  • 20 eine Ansicht einer Szene ist, die mit einem 32 × 32-Detektor-Array aufgenommen ist;
  • 21 eine Ansicht einer Szene ist, die mit einem 64 × 64-Detektor-Array aufgenommen ist;
  • 22 eine Ansicht einer Szene ist, die mit einem 128 × 128-Detektor-Array aufgenommen ist; und
  • 23 eine Ansicht einer Szene ist, die mit einem 256 × 256-Detektor-Array aufgenommen ist.
  • Wie in 1 zu sehen ist, hat ein Fahrzeug einen Fahrersitz 2, einen Beifahrersitz 3 und ein Lenkrad 4. Ein vorderer Airbag ist in dem Lenkrad 4 angebracht und ein Seiten-Airbag 6 befindet sich an der Seite des Fahrzeugs neben dem Fahrersitz. Der Kopf eines Fahrers ist mit 7 bezeichnet.
  • Ein thermischer Abbildungssensor 8 befindet sich in der A-Säule des Fahrzeugs vor dem und seitlich zu dem Fahrersitz. Eine alternative Position für den Abbildungssensor befindet sich in der Mitte des Fahrzeugs 1 bei dessen Rückspiegel. Dieser Abbildungssensor 8 hat eine Weitwinkellinse, um ungefähr 90° Sichtfeld abzudecken, um den Fahrer 7, das Lenkrad 4 und die Seite des Fahrzeugs zu umfassen.
  • Zusätzliche Sensoren 9 können an der A-Säule auf der linken Seite platziert werden, um einen Beifahrer abzudecken. Die Sensoren 8, 9 können sich an dem Rückspiegel 10 befinden, wenn eine Messung der Entfernung der Insassen zu einem Seiten-Airbag nicht erforderlich ist.
  • In einem Auto bei normaler Temperatur, z.B. 22 Grad Celsius, erscheint ein Fahrer oder Beifahrer viel wärmer – Hauttemperaturen messen typischerweise 32 Grad Celsius. Unter Gleichgewichtsbedingungen befindet sich eine Bekleidung bei einer Temperatur in diesem Bereich, z.B. 27 Grad Celsius.
  • Es ist folglich möglich, einfache Graupegel-Schwellen-Algorithmen zu verwenden, um den Teil der Abbildung zu definieren, der dem Auto, der Bekleidung und der Haut entspricht, siehe Stand der Technik ZEXEL ( DE 19822850 ).
  • In der Praxis geschieht dies nicht so einfach, da das Auto oft wärmer als die Insassen sein kann, wenn es in der Sonne geparkt wurde, oder eine Temperatur sehr nahe zu der Hauttemperatur hat, einfach aus dem Treibhauseffekt der Autoscheiben, der die interne Temperatur auch an einem wolkigen Tag ansteigen lässt.
  • Wenn ein wärmeres Auto abkühlt, gibt es einen Punkt, an dem die Durchschnittstemperatur des Insassen gleich der Durchschnittstemperatur des Autos ist.
  • Unter dieser Bedingung muss eine thermische Kamera ausreichend räumliche Auflösung haben, um kühlere und wärmere Stellen in der Szene zu unterscheiden, und ausreichend thermische Auflösung, um die geringen Temperaturunterschiede zu erfassen. Ein einfacher Schwellen-basierter Algorithmus arbeitet wahrscheinlich nicht zufriedenstellend.
  • 3, A, zeigt ein thermisches Abbild eines Fahrersitzes in einem Fahrzeug. In diesem Fall befindet sich der Sensor in der Mitte des Armaturenbretts. Dies ist keine ideale Position, aber dient dazu, die detaillierte Information anzuzeigen, die von einem thermischen Sensor verfügbar ist. Eine Verarbeitung des thermischen Abbilds, wie unten angeführt, nimmt an, dass der Sensor wie in den 1, 2 gezeigt an einer A-Säule platziert ist.
  • Da der Insasse 7 und die Airbag-Positionen 5, 6 in dem Abbild enthalten sind, kompensiert jede Bild-basierte Berechnung eine Anpassung des Lenkwinkels bzw. der Lenkstrecke und der Sitzposition, die von unterschiedlichen Fahrern gemacht wird.
  • In eineigen Ausführungsbeispielen ist es wünschenswert, die Ausgaben einiger Detektoren in dem Array zu ignorieren. Zum Beispiel kann die Verarbeitung von anderen Autoinsassen oder Teilen des Autos ausgeschlossen werden müssen. In diesem Fall kann der Sensor programmiert werden, einige der Detektoren in den Arrayausgaben während der Verarbeitung der thermischen Abbildungen zu ignorieren. Auf diese Weise kann ein standardmäßiger Weitwinkelfeldsensor 8 angepasst werden, einen eingeschränkteren Bereich abzudecken, ohne die Notwendigkeit für eine physikalische Maskierung der Linse, eine Sensorpositionsanpassung oder eine Änderung von Komponenten.
  • 3, A, zeigt ein Fahrzeuginneres mit einer mittleren radiometrischen Temperatur von ungefähr 32 Grad Celsius und die B zeigt das Auto mit einem Insassen in dem Fahrersitz. Die in dem Stand der Technik beschriebenen Algorithmen werden nicht in der Lage sein, den Insassen herauszusegmentieren, da seine Bekleidung kühler ist als das Auto. Es kann möglich sein, den Kopf zu segmentieren, aber andere wärmere Bereiche des Autos stören und das Ergebnis wird sehr schlecht sein.
  • Der unter Bezugnahme auf 4 beschriebene Algorithmus berechnet zuerst den Modulus des Unterschieds zwischen dem Hintergrundbild A und dem Bild B mit Insassen. Das Abbild A kann aufgenommen werden, wenn zum Beispiel das Auto aufgesperrt wird.
  • Das Ergebnis, C, ist ein strukturiertes Bild, das ein geisterhaftes Bild des Insassen in einem verrauschten Hintergrund zeigt.
  • Struktur-basierte Segmentierungstechniken (wie morphologische und Filterungs-Operationen) können dann eingesetzt werden, um ein bauschen zu entfernen und den Insassen in eine einzelne Einheit zusammenzufassen. Eine Maske wird von diesem Prozess erzeugt, die einfach den Bereich in dem Bild definiert, wo geglaubt wird, dass sich der Insasse befindet, und dies wird in dem Bild D gezeigt.
  • Berechnungen, wie Körpergröße, können auf diesem Maskenbild allein basieren, aber mehr Information kann verfügbar gemacht werden durch Multiplizieren dieser binären Maske mit dem Quellenbild B, um ein ausgeschnittenes Bild E des Insassen zu erzeugen.
  • Schwellentechniken können nun verwendet werden, um den Kopf ohne störende heiße Hintergrundobjekte zu identifizieren, aber dies funktioniert nur gut, wenn der Insasse bekleidet ist. Ein besserer Ansatz ist, zuerst die Körpermasse aus der Größe der Maske in Bild D zu schätzen und dann einen Bruchteil der Größe, z.B. 1/8, dem Kopf zuzurechnen, und somit nach einem kreisförmigen Objekt dieser Größe in dem oberen Teil des maskierten Abbilds E zu suchen.
  • Der Ort des vorderen Airbags (Lenkrad oder Armaturenbrett für einen Beifahrer) ist auch einfach zu finden unter Verwendung eines Phasenansatzes, der nach erweiterten Bildmerkmalen in einem gegebenen Orientierungsbereich und einer Position sucht. Alternativ kann diese Position, wenn sie fest ist, in den Sensor vorprogrammiert werden.
  • Die Ergebnisse werden in Abbild F gezeigt, wo ein Oktagon verwendet wurde, um die Position des Kopfes 7 zu markieren, wobei eine dicke Linie die Position des Lenkrads 4 anzeigt und eine dünne Linie 11 die Entfernung zwischen dem Kopf und dem Airbag in dem Lenkrad darstellt.
  • Ein einfacher Multiplizierer kann dann verwendet werden, um die Entfernung in Bildpixeln in eine Schätzung einer realen Entfernung in dem Auto zu konvertieren.
  • Diese Schätzung kann verbessert werden durch eine weitere Schätzung der Variation der Entfernung von dem Sensor zu dem Kopf durch Überwachen einer offensichtlichen Vergrößerung/ eines Schwunds der Kopfgröße in dem Abbild, wenn sich der Kopf zu dem Sensor mit weitem Sichtfeld hin und davon weg bewegt.
  • Diese direkte Form der Messung von innerhalb des Bildes durch Identifizieren des Insassen, seiner Größe und Kopfposition und dem Ort des Airbags aus demselben Bild (erlangt durch eine neue Auswahl einer Kombination von Sensortechnologie, Ort des Sensors und Bildverarbeitung) bedeutet, dass sekundäre Sensoren, zum Beispiel Sitzposition und Lenkwinkel, nicht erforderlich sind. Dies bringt eine Kosteneinsparung und vereinfacht stark eine in dem Fahrzeug erforderliche Verdrahtung.
  • Ein erster Algorithmus zur Verarbeitung der in 3 gezeigten Abbilder, Abbilder A–F, wird in der 4 gezeigt und weist die folgenden Schritte auf:
    • Schritt 1: Das Referenzbild Iref (Bild A) wird entweder durch Mitteln einer Anzahl von Rahmen über eine Zeitdauer berechnet oder wird aus einem Speicher genommen. Zum Beispiel kann in einer Airbag-Steuerungsanwendung eine Serie von Bildern über eine kurze Zeitdauer aufgenommen werden, z.B. ein Bruchteil einer Sekunde, wenn der Fahrer bei Annäherung an das Fahrzeug das Türschloss betätigt. Im Fall einer Szene, in der sich Objekte bewegen, z.B. Personen in einem Einkaufszentrum, wird der Effekt jedes einzelnen Individuums reduziert, wenn die Durchschnittsbildung zum Beispiel über eine Dauer von mehreren Minuten getätigt wird.
    • Schritt 2: Nimm das aktuelle Abbild Inow (Bild B). Dies ist der Eintrittspunkt in eine unendliche Schleife, die unterbrochen werden kann von einem Zurücksetzen-Signal, wenn es eine Ansammlung von Fehlern gibt, wobei der Algorithmus neu gestartet werden würde. Das aktuelle Bild wird nicht nach außerhalb der Vorrichtung geliefert, sondern nur von dem internen Vorverarbeitungs-Algorithmus verwendet.
    • Schritt 3: Berechne Modulus des Differenzbildes (Bild C). Das letzte Bild von der Kamera wird Pixel für Pixel von dem Referenzbild subtrahiert und alle negativen Ergebnisse werden durch Multiplizieren mit – 1 in positive Zahlen konvertiert. Das Ergebnis ist ein positives Bild, das Rauschen ist, außer dort, wo sich Objekte in der Szene bewegt haben.
    • Schritt 4: Das Rauschen im Hintergrund wird identifiziert als unstrukturierte Formen niedriger Amplitude. Strukturformen mit einem höheren Signal stellen Bereiche dar, in denen ein Objekt vorhanden ist. Struktur- und Rauschen-Erfassungsalgorithmen können verwendet werden, um ein binäres Maskenbild (Bild D) zu erzeugen, das jedes Pixel in dem Bild von Schritt 3 als entweder Objekt oder Hintergrund einteilt. Der vorliegende Algorithmus ist auch anwendbar, wenn er zum Beispiel in einem Einkaufszentrum verwendet wird, wo es eine Anzahl unterschiedlicher Bereiche gibt statt einen einzelnen zusammenhängenden Bereich, der z.B. von einem Sitzinsassen gebildet wird. Maskenbilder können von dem Sensor nach Schritt 4 ausgegeben werden, um eine Silhouetten-Information zu liefern. Dies kann nützlich sein, wenn eine Privatsphäre bewahrt werden muss, z.B. ein Einbrecher-Erfassungssystem mit einer Überwachung durch Sicherheitspersonal. Die Maskenbilder können verwendet werden, um eine Körpermasse eines Insassen aus dem besetzten Bereich des Bilds zu schätzen, z.B. durch Zählen von Pixeln in dem Maskenbild. Der Sensor kann in Verbindung mit einem Gewichtsensor in dem Sitz des Fahrzeugs verwendet werden, um eine Genauigkeit bei der Schätzung der Körpermasse zu verbessern.
    • Schritt 5: Teilbilder (Bild E) werden erzeugt durch Maskieren des eingegebenen Bilds Inow mit dem Maskenbild und die Koordinatenposition jedes Teilbilds wird berechnet. Diese Teilbilder und ihre Koordinaten können nun von der Vorrichtung an nachfolgende Verarbeitungssysteme kommuniziert werden.
    • Schritt 6: Das Hintergrundreferenzbild Iref (Bild A) muss regelmäßig aktualisiert werden. Ein Mittel, dies zu erreichen, ist durch Berechnen eines langfristigen Mittels der Inow-Bilder.
  • Andere komplexere Verfahren können ebenfalls eingesetzt werden, um eine Leistung in sich dynamischer verändernden Umgebungen zu verbessern.
  • Der obige Algorithmus von 4 kann von Fachleuten einfach in einem Computercode geschrieben werden und auf geeigneten Media gespeichert werden, zum Beispiel in einem Speicherchip auf oder integral zu dem Array der 13 und 14.
  • Der Algorithmus von 4 kann in anderen Detektor-Arrays verwendet werden; die Arrays können in jedem Typ einer herkömmlichen Kamera sein, die ein 2D-Bild erzeugt, und kann in den sichtbaren, Infrarot- oder thermischen Wellenbändern arbeiten. Dies liefert auf folgenden Gründen ein verbessertes Produkt:
    Normale Kamerasysteme liefern ein Bildmaterial mit vollen Rahmen des betrachteten Bereichs, unabhängig von der beobachteten Szene. Eine Vorrichtung gemäß einem Aspekt dieser Erfindung weist eine Kamera und einen vorverarbeitenden Algorithmus auf, der, statt ein Bildmaterial auf die normale Weise zu erzeugen, nur eine Sequenz von Teilbildern ausgibt, die neue Objekte in der Szene und ihre Position in der Szene zeigen.
  • Zum Beispiel kann eine derartige Vorrichtung verwendet werden, um ein Büro zu überwachen. In einem leeren Büro erzeugt die Kamera keine wie auch immer geartete Ausgabe. Wenn ein Büroangestellter das Büro betritt, erzeugt die Vorrichtung eine Sequenz von Teilbildern des Angestellten, der sich in dem Büro bewegt, zusammen mit einer Positionsinformation.
  • Diese Vorrichtung liefert die folgenden Vorteile: wenn sich kein neues Objekt in dem beobachteten Bereich befindet, werden von der Kamera keine Daten erzeugt, so dass es keinen Datenverarbeitungs-Overhead oder Leistungsverbrauch durch nachfolgende Bildverarbeitungs- oder Codierungssysteme gibt. Auch wenn sich ein neues Objekt in dem beobachteten Bereich befindet, ist die einzige Datenausgabe die (x, y)-Position des Objekts in dem Bildkoordinatensystem und ein Teilbild oder „Ausschnitt (cut-out)" des Objekts. Dieser Ausschnitt verändert die Graupegel oder Farbpegel des ursprünglichen Bilds nicht und somit kann jede nachfolgende Bilderkennungs- oder Musterverarbeitung verwendet werden, um das Objekt zu erkennen oder zu klassifizieren und zu verfolgen. Ebenso enthält der Ausschnitt keinen Hintergrund.
  • Die erzeugte binäre Maske kann auch derart invertiert bzw. umgekehrt werden, dass der entstehende Ausschnitt nur den Hintergrund zeigt und nicht die Personen in einem Raum. Dies kann nützlich sein für Aufgaben wie eine Überwachung von Gefängniszellen, wo der Operator sehen möchte, dass der Raum intakt ist und die Insassen sich an ihren normalen Positionen befinden, wobei aber deren Privatsphäre geschützt wird.
  • Eine weitere Anwendung ist eine Systemüberwachung für Hauseindringlinge, wo ein Alarmempfangszentrum die Aktivitäten in einem Raum sehen können muss, um zu bestätigen, dass ein Einbruch stattfindet, der Kunde aber seine Privatsphäre geschützt haben möchte.
  • Ein weiterer Algorithmus zum Erlangen der Position des Kopfes einer Person aus der kollektiven Ausgabe jedes Detektors in dem Array wird in 12 detailliert dargelegt. Die Schritte 1 bis 15 werden aufgeführt. Die Ausgabe nach Schritt 3 kann verwendet werden, um den Sensor einzustellen, Bereiche in einem Auto auszuschließen, die nicht verarbeitet werden müssen. Die Ausgabe des Schritts 3 kann beobachtet werden zum Beispiel auf einem LCD-Bildschirm eines Computers, die dann verwendet werden kann, um selektiv einige der Detektoren in dem Array auszuschalten. Für den Fall der Erfassung einer Kopfposition ist die mögliche Ausgabe nach dem Schritt 13 überflüssig; nur die Ausgabe von Schritt 15 wird verwendet, um zum Beispiel an eine Airbag-Steuereinrichtung zu kommunizieren, welche die Kopfposition kennen muss, um die Entfernung zu einer Airbag-Öffnung zu berechnen.
  • Die Verarbeitungsschritte des Algorithmus von 12 sind wie folgt:
    Der Zweck des folgenden Algorithmus ist, in Frage kommende Objekte aus dem thermischen Bildmaterial zu identifizieren. Primäre Anwendungsgebiete sind möglicherweise eine Erfassung der Kopfposition für eine Airbag-Steuerung, die eine Erfassung der Position des Kopfes erfordert, und eine Erfassung von Eindringlingen für Einbruchwarnanlagen, die eine Unterscheidung zwischen Menschen, Tieren und Spinnen und Insekten erfordert sowie unbelebte Objekte zurückweist.
  • Schritt 1: Stelle Kamera-Verstärkungs- und Pegel-Einstellungen ein; dies ermöglicht dem Bilderfasser, automatisch die Verstärkung der Kamera anzupassen, um ein ausreichendes Kontrastdetail in dem Bild vorzusehen, und setzt den Pegel, um sicherzustellen, dass der mittlere Graupegel in dem Bild nahe einem mittleren Wert liegt. Es gibt mehrere Möglichkeiten, um die Belichtung bzw. Exposition automatisch einzustellen, aber der wichtige Punkt ist hier, dass, sobald die Verstärkungs- und die Pegel-Einstellungen berechnet wurden, diese fest sind. Dies bedeutet, dass die Graupegel der Szene sich nur ändern, wenn sich ihre Temperatur ändert, statt als ein Ergebnis der Variation einer Verstärkungs- und Pegel-Steuerung. Ein Festlegen der Verstärkung und des Pegels ermöglicht, dass später eine Bildarithmetik unternommen werden kann, ohne unkontrollierte Fehler einzuführen.
  • Schritt 2: Berechne das Referenzbild Iref durch Mitteln einer Anzahl von Rahmen über eine kurze Zeitdauer. Dieser Schritt ermöglicht der Einheit, ein Referenzbild zu berechnen, das geringes Rauschen hat. Ein Mitteln einer Anzahl von Rahmen über eine bestimmte Zeit reduziert das Zeit-variierende Pixel-unabhängige Rauschen. Die späteren arithmetischen Operationen profitieren von einem reduzierten Rauschpegel in dem Referenzbild. Zum Beispiel kann in einer Airbag-Steuerungsanwendung eine Reihe von Bildern über eine kurze Zeitdauer, z.B. eine Sekunde, aufgenommen werden, wenn der Fahrer das Türschloss bei Annäherung an das Fahrzeug betätigt. In dem Fall einer Szene, in der sich Objekte bewegen, z.B. Leute in einem Einkaufszentrum, wird der Effekt jeder einzelnen Person reduziert, wenn die Mittelwertbildung über eine Zeitdauer von zum Beispiel 1 Minute geschieht. Es ist nicht wichtig, ob es eine stationäre Person gibt, da das Verbleibende des Algorithmus derartige Fälle korrigiert.
  • Schritt 3: Nimm das aktuelle Bild Inow. Dies ist der Eintrittspunkt in eine unendliche Schleife, die unterbrochen werden kann von einem Zurücksetzen-Signal, wenn es eine Ansammlung von Fehlern gibt. Ein Zurücksetzen wird aktiviert entweder durch einen Schlüssel (z.B. Türschloss des Fahrzeugs, Setzen der Einbruchwarnanlage) oder durch eine Überwachungsschaltung, die das Verhalten des Systems überwacht, oder einfach ein Anschalten (power-up). Die Schleife kann bei ungefähr normalen TV-Rahmenraten arbeiten, z.B. 25–30 Hz, oder an einer anderen gewünschten Frequenz, abhängig von der Anforderung der Anwendung. Die maximale Frequenz des Systems wird bestimmt von thermischen Zeitkonstanten des Detektor-Arrays und kann mehrere hundert Hertz betragen. Es gibt keine untere Frequenzgrenze. Ein Live-Bildmaterial kann an dieser Stufe über einen Ausgabeanschluss an eine Anzeigevorrichtung geliefert werden. Derartiges Bildmaterial kann zum Beispiel erforderlich sein für manuelle Verifizierungszwecke in der Einbrecherwarnindustrie. Das Bild ist klein, 64 × 64 Pixel, 8 Bit = 32768 Bit. Dies kann stark komprimiert werden, zum Beispiel mit einer Ratio von 20:1, was 1.6 kbits/Sekunde ergibt. Bei 30 Rahmen pro Sekunde ist die Gesamtdatenrate 49 kbits pro Sekunde. Live-Bildmaterial mit voller räumlicher Auflösung kann somit über eine herkömmliche Telefonleitung (Kapazität 56 kbit/sek) an ein Alarmempfangszentrum übertragen werden.
  • Schritt 4: Berechne Differenzbild Idiff = Inow – Iref. Das letzte Bild von dem Array wird von dem Referenzbild subtrahiert. Wenn eine Person das Sichtfeld betritt und wärmer als der Hintergrund ist (wie es typischerweise der Fall ist), zeigt das Differenzbild ein warmes Objekt vor einem Rauschen-Hintergrund. Wenn ein unbelebtes Objekt bewegt wurde, z.B. eine Tür, dann zeigt das Bild eine statische Ände rung, die über eine Zeitdauer anhält. Dieser Schritt hat die Position von sich bewegenden oder verschobenen Objekten identifiziert.
  • Schritt 5: Berechne Rauschpegel in Hintergrund von Idiff. Der geringe Pegel an Rauschen in dem Hintergrund sollte entfernt werden, da aber die Verstärkungseinstellungen und Charakteristiken der Umgebung unbekannt sein können, bevor eine Schwellen-Funktion durchgeführt wird, ist es vorteilhaft, das Rauschen zu charakterisieren. Dies kann durchgeführt werden unter Verwendung von standardmäßigen statistischen Ansätzen und eine optimale Schwelle kann gesetzt werden, um das gesamte Hintergrundrauschen zu entfernen.
  • Schritt 6: Setze Rauschschwelle Tn gerade über Rauschpegel. Dies ist selbsterklärend.
  • Schritt 7: Berechne Maskenbild Imask = 1, wenn {|Idiff| > Tn}, ansonsten 0. Durch Prüfen jedes Pixels in dem Differenzbild der Reihe nach und Betrachten, ob die Größe (oder Modulus) des Graupegels größer als die gesetzte Schwelle ist, kann das entsprechende Pixel in Imask gleich 1 oder 0 gesetzt werden. Die Bereiche in Imask, die gleich 1 sind, stellen somit Positionen dar, wo es eine Bewegung oder eine Änderung einer anderen Art gegeben hat, z.B. eine eingeschaltete Heizung.
  • Schritt 8: Wenn gewünscht, unterteile Bereiche bzw. Flecken (blobs) in Maskenbild unter Verwendung einer höheren Schwelle Th, um Gesicht/Kopf zu lokalisieren. Für ein Erfassungssystem für eine Kopfposition ist es nicht ausreichend, den gesamten Körper zu lokalisieren. Die Verwendung einer höheren Schwelle ermöglicht, dass wärmere Objekte in dem Bild herausgestellt werden. Dies ist normalerweise nackte Haut statt bekleidete Bereiche.
  • Schritt 9: Bezeichne Bereiche (blobs) in Imask mit Zahlen, berechne und speichere ihr Etikett (label), die Zeit, die Größe, die Position, den Aspekt bzw. die Lage, usw. Jeder getrennt gekennzeichnete Bereich in dem Maskenbild muss zwischen Rahmen identifiziert und verfolgt werden. Ein numerisches Etikett dient dazu, den Bereich zu identifizieren, und an dem Bereich durchgeführte Messungen werden für einen späteren Abruf und Vergleich gespeichert.
  • Schritt 10: Erzeuge Teilbild jedes Bereichs durch Multiplizieren Inow mit Imask. Die in 9 charakterisierten Bereiche waren tatsächlich Silhouetten. Dieser Schritt nimmt die Graupegel aus dem Eingangsbild Inow und kopiert sie auf den maskierten Bereich. Visuell liefert dies Bilder, die Ausschnitte (cut-outs) des ursprünglichen Bilds Inow sind, aber das Bild enthält nur ein Graupegel-Detail, so dass das Objekt erkannt werden kann.
  • Schritt 11: Verfolge jeden Bereich durch Suchen einer Ähnlichkeit in gemessenen Parametern, Merkmalen in dem Teilbild und Bewegungsmustern. Um zu bestimmen, ob sich ein Objekt über das Bild bewegt hat, muss es zwischen aufeinander folgenden Rahmen verfolgt werden.
  • Schritt 12: Wenn sich ein warmer Bereich mit der Zeit signifikant über das Bild bewegt, bezeichne ihn als „lebend", ignoriere kalte Bereiche. Sich bewegende warme Objekte (Personen und Tiere) sind besonders interessant; somit wird ein zusätzliches Etikett verwendet, um diese zu identifizieren. Kalte Bereiche können von Insekten und Spinnen oder durch das Verrücken von Möbeln, usw., erzeugt werden, die nicht von Interesse sind und somit ignoriert werden.
  • Schritt 13: Wenn ein „lebender" Bereich ein starkes Längenverhältnis für einen gegebenen Zeitabschnitt hat, aktiviere Warnungs- Weitermeldung. Die bereits gesammelte und analysierte Information kann verwendet werden, um eine Anzeige zu liefern, dass ein Eindringling in einen Raum eingedrungen ist, wenn die Erfindung als eine Eindringlings-Erfassungsvorrichtung verwendet wird. Ein zugewiesener Ausgabe-Pin wird vorgesehen, um einen Transistor oder eine Weitermeldungsschaltung anzusteuern, was eine unmittelbare Verwendung der Erfindung als eine Eindringlings-Erfassungsvorrichtung in existierenden Alarmeinrichtungen ermöglicht.
  • Schritt 14: Wenn ein nicht als „lebend" bezeichneter Bereich über eine lange Zeitdauer statisch bleibt, füge sein Teilbild zu Iref hinzu und korrigiere auch eine dc-Verschiebung in Iref. Objekte, wie geöffnete Türen, erzeugen einen Unterschied zu dem Referenzbild, sind aber nicht von Interesse. Wenn derartige Bereiche über eine lange Zeitdauer statisch bleiben, z.B. viele Minuten, dann können sie aus der weiteren Verarbeitung entfernt werden durch Aufnahme ihres Teilbilds in das Referenzbild durch Hinzufügen. Der dc-Pegel des Hintergrundbildbereichs wird überwacht, um zum Beispiel Änderungen der Raumtemperatur zu verfolgen, und ein dc kann angewendet werden, um dies zu korrigieren.
  • Schritt 15: Gib Bildmaterial und Daten an Kopfpositions-Berechnungsalgorithmus, Eindringlings-Entscheidung, Komprimierung, Erkennung, Bezeichnungs-Algorithmen, usw. aus. Ein Datenanschluss ist vorgesehen, um Ergebnisse der eingebauten Algorithmen an externe Prozessoren oder Elektronik zu kommunizieren. Diese können zum Beispiel für eine Airbag-Steuervorrichtung von Wert sein, welche die Kopfposition kennen muss, um eine Entfernung zu einer Airbag-Öffnung zu berechnen.
  • Der obige Algorithmus kann von Fachleuten einfach in einen Computercode geschrieben werden und auf geeigneten Media gespeichert werden, zum Beispiel in einem Speicherchip auf oder integral zu dem Array der 13 und 14.
  • Die Leistung des Prozesses der 12, den Kopf einer Person zu erfassen, wird durch Betrachtung der 5 bis 11 dargestellt, die thermische Bilder des Inneren eines Raums sind.
  • Die 57 zeigen drei unterschiedliche Zeitsequenzrahmen von thermischen Bildern in einem typischen Büro. Allen drei gemeinsam sind verschiedene heiße Objekte, z.B. Radiatoren bzw. Heizkörper, Computer, usw. Die 6, 7 zeigen eine den Raum betretende Person. Herkömmliche Algorithmen zur Erfassung einer einen Raum betretenden Person verwenden eine Graupegel-Schwellenfunktion, um warme Objekte zu finden, und erfassen eine Bewegung durch Differenzieren aufeinander folgender Rahmen. 8 zeigt den Effekt einer einfachen Graupegel-Schwellenfunktion; der verwendete Schwellenpegel, um die Person von dem lokalen Hintergrund zu unterscheiden, ist zu niedrig, um die störenden Objekte zu eliminieren. Wenn die Schwelle angehoben wird, wird die Person allmählich durch die Schwelle entfernt (thresholded out), da das wärmste Objekt in dem Raum der Radiator ist.
  • 9 zeigt den Effekt einer Bilddifferenzierung. Der Ansatz der Bilddifferenzierung ist sehr effektiv beim Entfernen von statischen Objekten, wie Radiatoren, betrifft aber unglücklicherweise das Bild des Eindringlings. Statt den Eindringling als Ganzes zu sehen, erzeugt die Differenzierungsoperation einen seltsamen Effekt.
  • Der Algorithmus von 12 leidet nicht unter diesen Problemen, sondern liefert einen deutlichen Ausschnitt (cut-out) des vorgesehenen Objekts, wodurch es aus der thermischen Signatur erkannt werden kann, wie in 11 gezeigt. Er weist auch Objekt zurück, die in dem überwachten Bereich bewegt wurden, aber offensichtlich unbelebt sind.
  • Das in 10 gezeigte dazwischenliegende Bild ist das Ergebnis der Hintergrund-Subtraktion.
  • Das Bild in 10 ist die Differenz zwischen dem Referenzbild und dem aktuellen Bild, und das Bild in 11 ist eines, in dem das Rauschen durch die Schwelle entfernt wurde (thresholded out) und die entstehende Maske verwendet wird, um das aktuelle Bild zu erkennen (key).
  • Das Bild in 11 ist deutlich ein Mensch und eine Messung der Höhe und Breite, um ein Längenverhältnis zu berechnen, ist trivial einfach. Eine andere Forminformation ist deutlich sichtbar und eine Information in der Form ist ebenso verfügbar für Erkennungsalgorithmen, um damit zu arbeiten.
  • Details eines geeigneten thermischen Kamera-Arrays werden in den 13, 14 gezeigt. Ein thermisches Abbildungs-Array 21 weist eine Basisplatte 22 aus Silikon auf, auf der Schaltungen 23, wie Verstärker, Gatter, usw. vorgesehen sind. Das Array 21 hat 4096 Detektoren, die in einem 64 × 64-Array angeordnet sind. Jeder Detektor 24 hat zwei Zeilen-Elektroden 25, 26 und eine Spalten-Elektrode 27 zugeordnet, um Spannungen an jeden Detektor 24 anzulegen und eine Ausgabe aus jedem Detektor 24 zu lesen. Alle Zeilen-Elektroden 25, 26 werden durch einen Zeilen-Treiber 29 betrieben und alle Spalten-Elektroden 27 werden durch einen Spalten-Treiber 28 betrieben. Beide Treiber werden gesteuert von einer Steuerungsschaltung 30, die mit externen Schaltungen kommuniziert, die nicht gezeigt sind.
  • Jeder Detektor 24 kann hergestellt werden, wie in WO/GB00/03243 beschrieben wird. In einer derartigen Vorrichtung wird ein Mikro-Bolometer 34 als eine Mikro-Brücke 35 ausgebildet, in der eine Schicht aus zum Beispiel Titan durch dünne Schenkel (legs) 37, 38 im Abstand von 1 bis 2 μm von einer Substratoberfläche 36 angeordnet ist. Typischerweise ist das Titan ungefähr 0.1 bis 0.25 μm in einem Bereich von 0.05 bis 0.3 μm mit einem Schichtwiderstand von ungefähr 3.3 Ω/sq. in einem Bereich von 1.5 bis 6Ω/sq. Die Detektor-Mikro-Brücke 35 wird unterstützt unter einer Schicht 39 aus Siliziumoxid mit einer Dicke von ungefähr λ/4, wobei λ die Wellenlänge der zu erfassenden Strahlung ist. Der Titan-Detektor absorbiert einfallende Infrarot-Strahlung (8 bis 14 μm Wellenlänge) und verändert seinen Widerstand mit der Temperatur. Somit liefert das Messen des Detektor-Widerstands einen Wert der einfallenden Strahlungsamplitude.
  • Die Detektoren 34 befinden sich alle in einem luftdichten Container mit Wänden 40 und einem Deckel 41, der ein Fenster oder eine Linse bildet. Die Wände 40 können aus Siliziumoxid sein und das Fenster 41 kann aus Germanium, Silizium oder einem Chalcogen-Glas sein. Typischerweise ist der Druck in dem Container weniger als 10 Pa.
  • Die 15 zeigt, wie jeder Detektor ausgelesen werden kann. Es werden zwei Reihen gezeigt. Eine erste Reihe von Detektoren wird von den Widerständen R1-1 bis R1-64 angezeigt, die jeweils an einem Ende mit einer a+V-Bias-Elektrode 51 verbunden sind. Die anderen Enden der Widerstände können über Schalter S1–S64 mit einer Auslese-Elektrode verbunden werden, die über einen Schalter S1 mit einem Ende eines Referenz-Widerstands R1 und mit einem Integrierkondensatorverstärker 54 verbunden ist. Der Referenz-Widerstand R1 ist mit einer negativen Bias-Spannung gleicher Amplitude mit der +V-Bias verbunden.
  • Ähnlich hat die zweite Reihe von Detektoren die Widerstände R2-1 bis R2-64, die verbunden sind über die Schalter S2-1 bis S2-64 und S2 mit einem Integrierkondensatorverstärker 55; und einen Referenz-Widerstand R2. Weitere Schalter S3 und S4 ermöglichen unterschiedliche Kombinationen von Verbindungen.
  • Eine thermische Szene wird gelesen, indem jedem Detektor 34 ermöglicht wird, durch die Szene durch das Fenster oder die Linse 41 beleuchtet zu werden. Diese thermische Strahlung erhöht die Temperatur jedes Detektors und variiert somit seinen Widerstandswert. Jeder Detektor in der ersten Reihe wird dann der Reihe nach über die Schalter S1–S64 mit dem Verstärker 54 für eine Integrationszeit verbunden. Die Verstärkerausgabespannung ist somit proportional zu der Temperatur jedes Detektors. Ähnlich werden alle anderen Reihen ausgelesen. Die gesamte Ausgabe aller Detektoren liefert ein elektrisches Bild der thermischen Szene.
  • Das x, y-Array ist vorzugsweise ein 64 × 64-Array, obwohl andere Werte von x und y in dem Bereich von 24 bis 96 gewählt werden können. Am vorzugsweisesten haben x und y die Werte von 32 oder 64, so dass einfache binäre Schaltungen verwendet werden können. Typischerweise sind x und y ungefähr 64, obwohl beispielsweise auch 62 verwendet werden kann mit zwei redundanten Reihen, die für andere Zwecke übrig sind, wie Timing-Marken oder Referenz-Widerstände.
  • Die Verwendung von 64 × 64-Arrays passt gut zur menschlichen Fovea. Die hochauflösende Stelle im Auge (die Fovea) deckt ungefähr zwei Grad der Mitte des Sichtfelds ab. In dieser hochauflösenden Stelle beträgt die Auflösung ungefähr 1 Bogenminute; eine Auflösung von 1 Bogenminute repräsentiert ein 20:20-Sehvermögen (vision). Somit kann für ein 20:20-Sehvermögen die Fovea durch ein Bild aus 120 × 120 Pixeln ausgefüllt werden, beispielsweise 128 × 128 (der Einfachheit halber), wenn sich die Anzeige in einer komfortablen Entfernung zu einem Betrachter befindet. Wenn dies reduziert wird auf 64 × 64 Pixel, um ein weniger als perfektes Sehvermögen zu repräsentieren, dann kann die vorliegende Erfindung als eine arbeitsfähige Anzeige betrachtet werden. Sich bewegende Bilder enthalten jedoch eine zusätzliche Information und können bei 32 × 32 zu erkennen sein, aber nur gerade noch.
  • Der Wert der Auswahl von ungefähr 64 × 64-Arrays wird unter Bezugnahme auf die 16 bis 23 erläutert, die Bilder einer thermischen Szene zeigen. Ein Minimieren der Array-Größe hält Kosten von Rohmaterial- und Bildverarbeitungsschaltungen niedrig, wodurch ein sehr konkurrenzfähiges Produkt geliefert wird.
  • 16 zeigt ein Bild der thermischen Szene, das von einem 2 × 2-Detektor-Array aufgenommen wurde; es kann nichts Verwertbares beobachtet werden.
  • 17 zeigt ein Bild der thermischen Szene, das von einem 4 × 4-Detektor-Array aufgenommen wurde; außer zwei helleren Bereichen oben und unten kann nichts Verwertbares beobachtet werden.
  • 18 zeigt ein Bild der thermischen Szene, das von einem 8 × 8-Detektor-Array aufgenommen wurde; getrennte Bereiche von hell und dunkel können unterschieden werden, aber ohne Vorwissen kann wenig Verwertbares beobachtet werden.
  • 19 zeigt ein Bild der thermischen Szene, das von einem 16 × 16-Detektor-Array aufgenommen wurde; dies ist eine Verbesserung gegenüber dem 8 × 8-Array, aber es können keine Details unterschieden werden.
  • 20 zeigt ein Bild der thermischen Szene, das von einem 32 × 32-Detektor-Array aufgenommen wurde. Dabei sind ausreichende Details verfügbar, um einen Operator zu zeigen, der in einem Auto sitzt und einen Sicherheitsgurt angelegt hat, aber das Gesicht ist unscharf.
  • 21 zeigt ein Bild der thermischen Szene, das von einem 64 × 64-Detektor-Array aufgenommen wurde. Dieses Bild ist ausreichend scharf, um Gesichtsmerkmale des Operators und Details seiner Bekleidung zu identifizieren.
  • Vergleichsweise zeigen die 22 und 23 ein Bild der thermischen Szene, das jeweils von einem 128 × 128-Detektor-Array und einem 256 × 256-Detektor-Array aufgenommen wurde. Beide zeigen mehr Detail als das 64 × 64-Array, aber die Verbesserung ist marginal und die zusätzliche Komplexität und Kosten nicht wert.
  • Unter Verwendung der Information aus dem 64 × 64-Array der 21 kann die Kopfposition des Operators relativ zu einem Lenkrad bestimmt werden. Wie zu sehen ist, lehnt sich der Operator zurück, während er fährt, statt sich zum Beispiel nach vorne zu beugen, um ein Radio einzustellen. In dem ersten Fall ist ein normaler Betrieb des Lenkrad-Airbags sicher, während in dem zweiten Fall ein voller Betrieb des Lenkrad-Airbags nicht sicher ist.

Claims (13)

  1. Kopfpositionssensor zur Verwendung in einem Fahrzeug in Verbindung mit Steuerungen zum Einsatz von Sicherheitsrückhalte-Airbags, der aufweist: ein 2D-Array aus passiven thermischen Infrarot-Detektoren, ein Linsensystem zur Abbildung eines Sitzinsassen und einer Position von zumindest einem Airbag, und einen Prozessor zum Bestimmen der Existenz eines Insassen in einem Sitz und der Position des Kopfes des Insassen relativ zu zumindest einem Airbag aus einem thermischen Bild des Arrays durch Konvertieren der Entfernung in Bildpixeln in eine Schätzung einer realen Entfernung in dem Fahrzeug durch einen einfachen Multiplizierer.
  2. Sensor gemäß Anspruch 1, wobei der Prozessor die ungefähre Körpermasse des Insassen eines Sitzes aus einem besetzten Bereich des Bilds berechnet.
  3. Sensor gemäß Anspruch 1, wobei der Prozessor die Position des Kopfes des Insassen relativ zu einem vorderen Airbag bestimmt.
  4. Sensor gemäß Anspruch 1, wobei der Prozessor integral mit dem Array ist.
  5. Sensor gemäß Anspruch 1 und einschließlich Mittel zum Bestimmen der Handposition des Fahrers und somit eine Position des Lenkrads.
  6. Sensor gemäß Anspruch 1 und einschließlich Mittel zum Bestimmen der Position des Lenkrads und somit der Position eines vorderen Airbags aus Merkmalen in einem thermischen Abbild des Fahrzeuginneren.
  7. Sensor gemäß Anspruch 1, wobei der Sensor ein x, y-Array von Detektoren hat, wobei zumindest x oder y in dem Bereich von 24 bis einschließlich 96 liegt.
  8. Verfahren zum Vorsehen einer Information zur Steuerung von Sicherheits-Airbags in einem Fahrzeug mit Steuerungen zum Einsatz von Sicherheitsrückhalte-Airbags, wobei das Verfahren die Schritte aufweist: Vorsehen eines 2D-Arrays aus passiven thermischen Bild-Detektoren und eines Linsensystems; Vorsehen eines thermischen Abbilds des Insassen eines Fahrzeugs und einer Position von zumindest einem Airbag; Bestimmen der Position des Kopfes des Insassen relativ zu Teilen des Fahrzeugs, die einen Airbag enthalten, aus einem thermischen Bild des Arrays durch Konvertieren der Entfernung in Bildpixeln in eine Schätzung einer realen Entfernung in dem Fahrzeug durch eine einfache Multiplikation, Vorsehen eines Ausgabesignals, das die Kopfposition des Insassen darstellt, wodurch in Verwendung die Steuerungen des Fahrzeugs den Einsatz von zumindest einem der Airbags anpassen.
  9. Verfahren gemäß Anspruch 8 und einschließlich des Schrittes der Bestimmung einer Position des Lenkrads aus der Position der Hände des Fahrers in dem thermischen Abbild.
  10. Verfahren gemäß Anspruch 8, das den Schritt des Schätzens der Körpermasse des Insassen aus der Größe des Insassen in dem thermischen Abbild aufweist.
  11. Verfahren gemäß Anspruch 10, wobei die Körpermasse geschätzt wird aus der Größe des Insassen in dem thermischen Abbild zusammen mit einer Gewichtsmessung aus dem Sitz des Fahrzeugs.
  12. Verfahren gemäß Anspruch 8, wobei die Kopfposition in drei Dimensionen durch und unter Verwendung der erfassten Kopfgröße geschätzt wird, um eine Entfernung von dem Sensor zu schätzen, und durch Verwendung der relativen Position des Kopfes in dem thermischen Abbild, um die anderen zwei der drei Dimensionen zu bestimmen.
  13. Verfahren gemäß Anspruch 8, wobei die Kopfposition unter Verwendung von zwei Arrays von Detektoren für thermische Abbilder und durch Triangulationsberechnungen erlangt wird.
DE60311423T 2002-02-02 2003-01-31 Kopfpositionssensor Expired - Lifetime DE60311423T2 (de)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
GB0202502A GB0202502D0 (en) 2002-02-02 2002-02-02 Head position sensor
GB0202501 2002-02-02
GB0202501A GB0202501D0 (en) 2002-02-02 2002-02-02 Algorithm for imaging arrays
GB0202503 2002-02-02
GB0202504 2002-02-02
GB0202504A GB0202504D0 (en) 2002-02-02 2002-02-02 Intruder detection system
GB0202502 2002-02-02
GB0202503A GB0202503D0 (en) 2002-02-02 2002-02-02 Thermal imaging arrays
PCT/GB2003/000411 WO2003066386A2 (en) 2002-02-02 2003-01-31 Head position sensor

Publications (2)

Publication Number Publication Date
DE60311423D1 DE60311423D1 (de) 2007-03-15
DE60311423T2 true DE60311423T2 (de) 2007-10-31

Family

ID=27739226

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60311423T Expired - Lifetime DE60311423T2 (de) 2002-02-02 2003-01-31 Kopfpositionssensor

Country Status (10)

Country Link
US (1) US20050077469A1 (de)
EP (2) EP1772321A3 (de)
JP (1) JP4409954B2 (de)
KR (1) KR20040083497A (de)
AT (1) ATE352459T1 (de)
AU (1) AU2003205842A1 (de)
CA (1) CA2474893A1 (de)
DE (1) DE60311423T2 (de)
ES (1) ES2279938T3 (de)
WO (1) WO2003066386A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012111716A1 (de) * 2012-12-03 2014-06-05 Trw Automotive Electronics & Components Gmbh Strahlungserfassungseinrichtung
DE102011007584B4 (de) 2010-04-29 2023-08-03 Ford Global Technologies, Llc Verfahren und System zur Insassendetektion
US11847548B2 (en) 2018-02-23 2023-12-19 Rockwell Collins, Inc. Universal passenger seat system and data interface

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080142713A1 (en) * 1992-05-05 2008-06-19 Automotive Technologies International, Inc. Vehicular Occupant Sensing Using Infrared
DE102004018288A1 (de) * 2004-04-15 2005-11-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur näherungsweisen Indentifizierung eines Objekts
JP4376801B2 (ja) * 2005-01-28 2009-12-02 マツダマイクロニクス株式会社 乗員検知装置
US20070146482A1 (en) * 2005-12-23 2007-06-28 Branislav Kiscanin Method of depth estimation from a single camera
US20080170485A1 (en) * 2007-01-15 2008-07-17 Tdk Corporation Optical recording medium
WO2009005497A1 (en) 2007-06-29 2009-01-08 Thomson Licensing Apparatus and method for reducing artifacts in images
KR101182188B1 (ko) * 2009-11-13 2012-09-12 엄두간 적외선 센서 및 이를 이용한 감지 방법
EP2608713A4 (de) 2010-08-27 2014-01-08 Milwaukee Electric Tool Corp Wärmeerkennungssysteme, -verfahren und -vorrichtungen
US9883084B2 (en) 2011-03-15 2018-01-30 Milwaukee Electric Tool Corporation Thermal imager
IL213506A (en) * 2011-06-13 2016-04-21 Israel Aerospace Ind Ltd Pursuing a goal
WO2012172865A1 (ja) * 2011-06-17 2012-12-20 本田技研工業株式会社 乗員検知装置
JP5638139B2 (ja) * 2011-08-10 2014-12-10 本田技研工業株式会社 乗員検知装置
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
US10794769B2 (en) 2012-08-02 2020-10-06 Milwaukee Electric Tool Corporation Thermal detection systems, methods, and devices
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US20140270395A1 (en) * 2013-03-15 2014-09-18 Propel lP Methods and apparatus for determining information about objects from object images
KR101484201B1 (ko) 2013-03-29 2015-01-16 현대자동차 주식회사 운전자 머리 위치 측정 시스템
JP5891210B2 (ja) * 2013-08-29 2016-03-22 富士重工業株式会社 乗員保護装置
US9582112B2 (en) 2014-03-21 2017-02-28 Synaptics Incorporated Low ground mass artifact management
US9814410B2 (en) 2014-05-06 2017-11-14 Stryker Corporation Person support apparatus with position monitoring
CN105253085A (zh) * 2015-11-14 2016-01-20 大连理工大学 车内滞留乘员状态识别及险态控制系统
CN105501165A (zh) * 2015-12-01 2016-04-20 北汽福田汽车股份有限公司 车辆保护系统及车辆
KR101774692B1 (ko) * 2016-05-16 2017-09-04 현대자동차주식회사 에어백 제어 장치 및 방법
US9696457B1 (en) * 2016-08-24 2017-07-04 Excelitas Technologies Singapore Pte Ltd. Infrared presence sensing with modeled background subtraction
US10789725B2 (en) * 2018-04-22 2020-09-29 Cnoga Medical Ltd. BMI, body and other object measurements from camera view display
FR3088512B1 (fr) * 2018-11-09 2020-10-30 Schneider Electric Ind Sas Procede de traitement d'une image
EP3719696A1 (de) 2019-04-04 2020-10-07 Aptiv Technologies Limited Verfahren und vorrichtung zur lokalisierung eines sensors in einem fahrzeug

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6270116B1 (en) * 1992-05-05 2001-08-07 Automotive Technologies International, Inc. Apparatus for evaluating occupancy of a seat
US5829782A (en) * 1993-03-31 1998-11-03 Automotive Technologies International, Inc. Vehicle interior identification and monitoring system
US6324453B1 (en) * 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
US6553296B2 (en) * 1995-06-07 2003-04-22 Automotive Technologies International, Inc. Vehicular occupant detection arrangements
JPS60152904A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
JPH0697783B2 (ja) * 1985-05-14 1994-11-30 三井金属鉱業株式会社 バツクグラウンドノイズ除去装置
US5101194A (en) * 1990-08-08 1992-03-31 Sheffer Eliezer A Pattern-recognizing passive infrared radiation detection system
JPH05196425A (ja) * 1992-01-21 1993-08-06 Ezel Inc 人間の3次元位置検出方法
US6254127B1 (en) 1992-05-05 2001-07-03 Automotive Technologies International Inc. Vehicle occupant sensing system including a distance-measuring sensor on an airbag module or steering wheel assembly
JPH06150005A (ja) * 1992-11-05 1994-05-31 Matsushita Electric Ind Co Ltd 移動体検出装置及び移動体追尾装置
US5330226A (en) 1992-12-04 1994-07-19 Trw Vehicle Safety Systems Inc. Method and apparatus for detecting an out of position occupant
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5691693A (en) 1995-09-28 1997-11-25 Advanced Safety Concepts, Inc. Impaired transportation vehicle operator system
US6027138A (en) * 1996-09-19 2000-02-22 Fuji Electric Co., Ltd. Control method for inflating air bag for an automobile
US5785347A (en) * 1996-10-21 1998-07-28 Siemens Automotive Corporation Occupant sensing and crash behavior system
US6005958A (en) * 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
JPH10315906A (ja) 1997-05-21 1998-12-02 Zexel Corp 乗員認識方法と乗員認識装置及びエアバック制御方法とエアバック装置
DE59906980D1 (de) * 1998-02-28 2003-10-23 Siemens Building Tech Ag Einrichtung zur Raumüberwachung
JP2000346710A (ja) * 1999-03-26 2000-12-15 Denso Corp 赤外線検出装置
GB9919877D0 (en) 1999-08-24 1999-10-27 Secr Defence Micro-bridge structure
JP2001296184A (ja) 2000-04-17 2001-10-26 Denso Corp 赤外線検出装置
US6904347B1 (en) 2000-06-29 2005-06-07 Trw Inc. Human presence detection, identification and tracking using a facial feature image sensing system for airbag deployment
US20030034501A1 (en) * 2001-08-16 2003-02-20 Motorola, Inc. Image sensor with high degree of functional integration
GB2402010B (en) * 2003-05-20 2006-07-19 British Broadcasting Corp Video processing

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011007584B4 (de) 2010-04-29 2023-08-03 Ford Global Technologies, Llc Verfahren und System zur Insassendetektion
DE102012111716A1 (de) * 2012-12-03 2014-06-05 Trw Automotive Electronics & Components Gmbh Strahlungserfassungseinrichtung
US9714867B2 (en) 2012-12-03 2017-07-25 Trw Automotive Electronics & Components Gmbh Monolithically constructed radiation detection device
US11847548B2 (en) 2018-02-23 2023-12-19 Rockwell Collins, Inc. Universal passenger seat system and data interface

Also Published As

Publication number Publication date
JP2005517162A (ja) 2005-06-09
DE60311423D1 (de) 2007-03-15
ES2279938T3 (es) 2007-09-01
WO2003066386A3 (en) 2003-11-27
ATE352459T1 (de) 2007-02-15
KR20040083497A (ko) 2004-10-02
EP1772321A2 (de) 2007-04-11
US20050077469A1 (en) 2005-04-14
EP1772321A3 (de) 2007-07-11
JP4409954B2 (ja) 2010-02-03
AU2003205842A1 (en) 2003-09-02
CA2474893A1 (en) 2003-08-14
WO2003066386A2 (en) 2003-08-14
EP1470026A2 (de) 2004-10-27
EP1470026B1 (de) 2007-01-24

Similar Documents

Publication Publication Date Title
DE60311423T2 (de) Kopfpositionssensor
DE10301468B4 (de) Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE102005026875B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE10158415C2 (de) Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
DE19947062B4 (de) Vorrichtung zum Erfassen eines Objekts unter Verwendung eines Differentialbildes
DE60118189T2 (de) Nah-infrarote verkleidungsdetektion
DE10247371B4 (de) Fahrzeuginformation-Bereitstellungsvorrichtung
DE10228638B4 (de) Fahrzeugzonen-Überwachungsvorrichtung
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
EP1018839B2 (de) Verfahren und Einrichtung zur Einsichtnahme des rückwärtigen Beobachtungsraumes bei Kraftfahrzeugen
DE102004012811B4 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102008039130A1 (de) Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren
DE102007055404A1 (de) Sicherheitssystem für ein Kraftfahrzeug
WO2018099689A1 (de) Kamera zur überwachung eines überwachungsbereiches und überwachungsvorrichtung sowie verfahren zur überwachung eines überwachungsbereiches
DE102006054571A1 (de) Generator für Virtuelle Realitäts-Szenen zur Erzeugung von Trainingsbildern für einen Mustererkennungs-Klassifikator
DE102006010735A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102010048022A1 (de) Verfahren zur berührungslosen Bestimmung der Temperatur eines Objekts und korrespondierende Wärmebildkamera
DE102004034532B4 (de) Verfahren zur Kennzeichnung von Bildinformationen in der Darstellung eines mit einer fahrzeugseitigen Bildaufnahmeeinrichtung aufgenommenen Nachtsichtbildes und zugehöriges Nachtsichtsystem
WO2003107259A1 (de) Verfahren zur detektion einer person in einem raum
EP1200945B1 (de) Verfahren zur erkennung von szenenänderungen und überwachungseinrichtung hierzu
DE10220825A1 (de) Bildaufnahmevorrichtung für Fahrerassistenzsysteme
DE19548578C2 (de) Positionsselektiver passiver Infrarot-Intrusion-Sensor
DE3614277A1 (de) Abtastfeuerueberwachungssystem
DE10360676A1 (de) Verfahren zur Temperaturerfassung
DE19625235A1 (de) Bewegungsmelder zur Detektion von Wärmestrahlung abgebenden, beweglichen Objekten

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: KAUSHAL, TEJ PAUL, MALVERN, WORCESTERSHIRE, GB

8364 No opposition during term of opposition