DE60123214T2 - Rauch- und flammendetektion - Google Patents

Rauch- und flammendetektion Download PDF

Info

Publication number
DE60123214T2
DE60123214T2 DE60123214T DE60123214T DE60123214T2 DE 60123214 T2 DE60123214 T2 DE 60123214T2 DE 60123214 T DE60123214 T DE 60123214T DE 60123214 T DE60123214 T DE 60123214T DE 60123214 T2 DE60123214 T2 DE 60123214T2
Authority
DE
Germany
Prior art keywords
smoke
flame
pixels
decision
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60123214T
Other languages
English (en)
Other versions
DE60123214D1 (de
Inventor
c/o Sentec Limited Michael John BLACK
c/o Sentec Limited Edward Grellier COLBY
c/o VSD Limited Ian Frederick Guildford MOORE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INTELLIGENT SECURITY Ltd
Intelligent Security Ltd Guildford
VSD Ltd
Original Assignee
INTELLIGENT SECURITY Ltd
Intelligent Security Ltd Guildford
VSD Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0002695A external-priority patent/GB0002695D0/en
Priority claimed from GB0010857A external-priority patent/GB0010857D0/en
Priority claimed from PCT/GB2000/003717 external-priority patent/WO2001024131A2/en
Application filed by INTELLIGENT SECURITY Ltd, Intelligent Security Ltd Guildford, VSD Ltd filed Critical INTELLIGENT SECURITY Ltd
Publication of DE60123214D1 publication Critical patent/DE60123214D1/de
Application granted granted Critical
Publication of DE60123214T2 publication Critical patent/DE60123214T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Fire-Detection Mechanisms (AREA)

Description

  • Die Erfindung betrifft die Erkennung von Rauch und Flammen unter der Verwendung einer Bildverarbeitungstechnologie.
  • Zur zentralen Überwachung ist es allgemein üblich, in Gebäuden und in ihrer Umgebung, in Verkehrseinrichtungen, wie z. B. Tunneln, oder in Industrieanlagen CCTV-Kameras zu installieren. Diese Kameras können verwendet werden, um Feuer zu erkennen und Feueralarminformationen bereitzustellen. Vorteilhafterweise können solche Kameras in ein automatisches Feuererkennungssystem integriert werden, das ohne jegliches menschliches Eingreifen arbeiten kann und dabei das Risiko von Fehlalarmen reduziert.
  • Es ist bekannt, Bilderkennungssysteme zur Rauch- und Flammenerkennung zu verwenden. Ein Beispiel für ein Kamera-basiertes Rauchererkennungssystem ist in WO00/23959 (VSD Limited) offenbart.
  • JP 10269471 stellt für den Anmelder den nächstliegenden Stand der Technik dar. Dieses Dokument offenbart ein Flammenerkennungssystem mit mindestens einem Fotografiermittel oder einer CCD-Kamera; einem Verfahren zum Analysieren von durch die Kamera aufgenommenen aufeinander folgenden Einzelbildern; Vergleichen von einzelnen Pixeln; Analysieren von aufeinander folgenden Einzelbildern; Beurteilen von Helligkeit, um ein helles Feld zu erkennen; und nach der Isolierung eines hellen Feldes (erneute) Beurteilung der Helligkeit in der Grenzregion eines hellen Feldes mit dem Ziel der Raucherkennung, indem bestimmt wird, ob die Grenzübereinstimmung (engl.: boundary likeness) unter einem vorbestimmten Wert liegt.
  • Die durch die vorliegende Erfindung gelöste Aufgabenstellung besteht darin, wie das Auslösen eines Signals „Rauch vorhanden" und „Flamme vorhanden" beschleunigt werden kann, wobei die Genauigkeit, mit der die Flammen erkannt werden, die Rauch abgeben, mindestens beibehalten oder verbessert wird.
  • In einem ersten weiten unabhängigen Aspekt sieht die Erfindung ein kombiniertes Rauch- und Flammenerkennungssystem vor, das mindestens eine Videokamera, einen Videoeinzelbild-Komparator und eine Prozessor umfasst, wobei der Prozessor so eingerichtet ist, dass er die von der einen oder von jeder Kamera erfassten aufeinander folgenden Einzelbilder analysiert, indem er einzelne Pixel der Einzelbilder gemäß mindestens zwei vordefinierten Beziehungen miteinander vergleicht, um auf diese Weise in der Lage zu sein, Rauch und Flammen zu erkennen und ein Ausgabesignal zu erzeugen, welches das Vorhandensein von Rauch, Flammen oder von Rauch und Flammen anzeigt, dadurch gekennzeichnet, dass der Prozessor Mittel zum Filtern der durch das System produzierten digitalisierten Bilder mithilfe eines ersten vordefinierten Algorithmus einschließt, sodass ausschließlich Änderungen in den Pixelmerkmalen, die innerhalb eines vorbestimmten Frequenzbands auftreten, dazu verwendet werden, eine Entscheidung „Flamme vorhanden" zu treffen; und wobei gleichzeitig ein zweiter vordefinierter Algorithmus verwendet wird, so dass Pixelmerkmale beurteilt werden, um unabhängig von der Entscheidung „Flamme vorhanden" eine Entscheidung „Rauch vorhanden" zu treffen, sowie Mittel zum Analysieren der durch den ersten und den zweiten vordefinierten Algorithmus getroffenen Entscheidungen, um zu beurteilen, ob ein Feuer vorliegt.
  • In einem zweiten weiten Aspekt gibt die Erfindung das Verfahren zum Erkennen von Rauch und Flammen an, wobei das Verfahren die folgenden Schritte umfasst: Empfangen digitalisierter Bilder eines zu überwachenden Bereichs; Vergleichen der Pixel von einem der Bilder mit Pixeln eines anderen Bilds entsprechend zwei vorbestimmten Prozeduren, um Entscheidungen „Flamme vorhanden" und „Rauch vorhanden" zu treffen; und Bereitstellen eines Signals „Feuer erkannt" entsprechend den Entscheidungen „Rauch vorhanden" und „Flamme vorhanden"; gekennzeichnet durch den Schritt des Filterns der durch das System produzierten digitalisierten Bilder mithilfe einer vordefinierten Beziehung, sodass ausschließlich Änderungen in den Pixelmerkmalen, die innerhalb eines vorbestimmten Frequenzbands auftreten, verwendet werden, um eine Entscheidung „Flamme vorhanden" zu treffen; und wobei gleichzeitig eine zweite vordefinierte Beziehung verwendet wird, sodass Pixelmerkmale beurteilt werden, um zusätzlich zur oder anstelle der Entscheidung „Flamme vorhanden" eine Entscheidung „Rauch vorhanden" zu treffen.
  • Das System und das Verfahren erzielen die folgenden einzigartigen Vorteile:
    • (1) Die Erkennung von Rauch unabhängig von Flammen, z. B. sogar in dunklen Tunnels,
    • (2) Die Erkennung von Flammen unabhängig von Rauch, da das gewählte Frequenzband zu einer bekannten Flamme gehören kann,
    • (3) Die Fähigkeit, das Entstehen von Feuern zu erkennen, wenn vorwiegend Rauch erzeugt wird – das Feststellen von Licht ist zunächst nicht notwendig, danach Grenzbeurteilung als ND1; das System bewältigt verschiedene Entstehungsarten; es wird nicht nur mit Licht abgebenden Feuern in einer ersten Phase fertig,
    • (4) Fähigkeit zur nahezu unverzögerten Erwiderung auf eine Schutzüberwachung – ist eine Rauchbeurteilung nicht erforderlich, wenn eine Flammenfrequenz erkannt wird; im anderen Fall ist es nicht notwendig, Flammen zu beurteilen, wenn Rauch festgestellt wird; und
    • (5) Das System reagiert auf erfasste Ereignisse, sei das Ereignis ein schnell entzündendes Feuer, in dem wenig oder kein Rauch abgegeben wird, oder ein sich langsam ausbreitendes Feuer.
  • Zum guten Verständnis der Erfindung werden nunmehr einige Ausführungen, die nur beispielhaft angegeben sind, mit Bezug auf die Zeichnungen beschrieben, in denen zeigen:
  • 1 ein Blockdiagramm, das ein Rauch- und Flammenerkennungssystem zeigt; und
  • 2 ein Blockdiagramm, das Schritte eines Algorithmus zeigt, der von dem in 1 gezeigtem System verwendet wurde; und
  • 3 ein Blockdiagramm, das einen anderen Algorithmus zur Verwendung in einem Flammen- und Raucherkennungssystem darstellt.
  • Das Rauch- und Flammenerkennungssystem 10 umfasst eine oder mehrere Videokameras 12, die wechselnd auf eine oder mehrere zu überwachende Regionen gerichtet ist. Die Kameras übernehmen vorzugsweise auch eine zweite Funktion als Teil eines Sicherheitssystems oder einer anderen Form von Überwachungssystem. Es versteht sich jedoch, dass eine oder mehrere Kameras nur für die Feuererkennung vorgesehen werden könnten. In der folgenden Beschreibung wird das System der Einfachheit wegen als System beschrieben, das eine Kamera 12 hat.
  • Die Kamera ist auf eine zu überwachende Region oder einen Sichtbereich 14 gerichtet und gibt mit einer Bildwechselfrequenz von 25Hz ein analoges Standard 625 Videosignal aus. In der Praxis hat sich eine Standard-Videokamera von der Firma Hitachi als geeignet erwiesen. Von der Kamera aufgenommene Bilder des Sichtbereichs 14 werden mit einer minimalen Bildwechselfrequenz von 5Hz, vorzugsweise mit etwa 10Hz, einer Einzelbild-Erfassungskarte 16 zugeführt. Die Einzelbild-Erfassungskarte digitalisiert die Bilder bis zu einer Auflösung von 640 Pixeln pro Linie mit 480 Linien und führt mit der Bildwechselfrequenz einem Prozessor 18 die digitalisierten Bilder zu. Die Einzelbild-Erfassungskarte ist ein Standard Hardware-Teil. In der Praxis hat sich ein Gerät National Instruments PCI 1411 als geeignet erwiesen, dass in den PCI-Bus eines Standard-PCs gesteckt wird. Die Einzelbild-Erfassungskarte kann Scion Image Software verwenden.
  • Es sollte ersichtlich sein, dass die Kamera eine Digitalkamera sein kann. In diesem Fall müsste die Einzelbild-Erfassungskarte die Bilder nicht digitalisieren, sondern lediglich digitalisierte Bilder von der Kamera mit der notwendigen Frequenz greifen und die Bilder dem Prozessor 18 zuführen.
  • Der Prozessor 18 kann einen Standard-IBM PCTM, der einen 750Hz Intel Pentium 3TM Prozessor mit 128 MB RAM verwendet, umfassen. Es versteht sich jedoch, dass dies nur ein Beispiel von vielen Prozessoren ist, die ebenso geeignet wären.
  • Der Prozessor 18 verarbeitet die digitalisierten Bilder, die er von der Einzelbild-Erfassungskarte erhalten hat, mithilfe von separaten Algorithmen 20, 22 für Rauch- und Flammenerkennung. Einzelheiten zu den Algorithmen sind nachfolgend angegeben. Der Prozessor verwendet eine mehrgängige Verarbeitungsumgebung, wie z. B. Fenster, sodass gleichzeitig die zwei Algorithmen laufen, um in dem digitalisierten Bild Rauch- oder Flammbereiche zu erkennen.
  • Der Prozessor analysiert die durch die Algorithmen erzeugten Daten, um zu beurteilen, ob ein Feuer erkannt wurde. Der Prozessor kann zu Beurteilung, ob ein Feuer erkannt wurde eine auf Abstimmung basierende Analyse (engl.: vote based analysis) verwenden. Der Prozessor kann beispielsweise ein Signal „Feuer erkannt" erzeugen, wenn eine Entscheidung „Flamme vorhanden" und eine Entscheidung „Rauch vorhanden" getroffen wird. Dies würde eine hochrangige Anzeige „Feuer vorhanden" darstellen. Im anderen Fall, wenn nur ein Algorithmus eine Ja-Entscheidung trifft, kann der Prozessor eine Anzeige „Feuer vorhanden" mit niedrigerem Rang bereitstellen. Eine weitere Möglichkeit besteht darin, eine höherrangige Anzeige „Feuer vorhanden" zu erzeugen, wenn beide Algorithmen eine Ja-Entscheidung treffen, und wenn einer der beiden, z. B. der Algorithmus für die Flammenerkennung, eine Ja-Entscheidung trifft, während der andere eine Nein-Entscheidung trifft und eine Anzeige „Feuer vorhanden" mit niedrigerem Rang erzeugt, in dem nur der andere Algorithmus eine Ja-Entscheidung trifft. Diese letzte Alternative kann vorteilhaft in einer Umgebung verwendet werden, in der Rauch abgebende Feuer selten auftreten und/oder es eine Wahrscheinlichkeit gibt, dass Ereignisse auftreten, die eine fehlerhafte Entscheidung „Rauch vorhanden" auslösen. Ein Beispiel für eine solche Umgebung kann ein Bereich in einer Petrochemiefabrik sein, in der Rauch freigesetzt werden kann. Es sollte selbstverständlich ersichtlich sein, dass eine solche stimmenbasierte Analyse in vielerlei Hinsicht verschieden sein kann, und dass beispielsweise die durch die Algorithmen erzeugten Entscheidungen „Flamme vorhanden" und „Rauch vorhanden" eingestuft werden können. Die Abstimmung (engl.: vote) „Feuer erkannt" könnte die jeweiligen Einstufungen berücksichtigen, indem sie beurteilt, ob ein Feuer erkannt wurde und welche Einstufung vorliegt, falls die Anzeige „Feuer vorhanden" eingestuft wurde.
  • Alternativ zu dem stimmenbasierten System kann der Prozessor die unter Verwendung der Algorithmen erzeugten Daten nehmen und eine statistische Analyse durchführen, um zu beurteilen, ob ein Feuer erkannt wird. Eine solche Analyse kann eine nicht-eingestufte Anzeige „Feuer erkannt" oder eine eingestufte Anzeige „Feuer vorhanden" erzeugen. Es können verschiedene Formen statistischer Analyse verwendet werden, darunter Analysen, die auf frühere Entscheidungen in einer vorbestimmten Zeitraum bezogen sind. Da sie dem Fachmann ohne weiteres ersichtlich sind, werden diese Analysen hier nicht detailliert beschrieben.
  • Wenn die Entscheidung 26 ein Feuer feststellt, gibt der Prozessor mithilfe einer Standard-Serienverbindung RS232 ein geeignetes Signal aus. Das Signal kann verwendet werden, um für die Bedienperson eines herkömmlichen PC-Bildschirms 28 eine Bildschirm-Warnung anzugeben. Die Bedienperson kann daraufhin entscheiden, ob ein Alarm ausgelöst werden soll oder nicht oder ob eine genauere Untersuchung erfolgen soll. Im anderen Fall, oder zusätzlich, kann das Signal über bekannte Schnittstellengeräte, wie z. B. digitale bis analoge Schnittstellen, zugeführt werden, um mithilfe einer herkömmlichen Alarmeinrichtung 30 ein Alarmsignal zu erzeugen. Zusätzlich oder alternativ könnte ein digitales Alarmsignal zu einer digitalen Empfangseinrichtung der örtlichen Feuerwehr geleitet werden. Es wäre von Vorteil, wenn der Prozessor den Bestimmungsort des Ausgabesignals gemäß der dem Signal „Feuer erkannt" zugeordneten Einstufung (falls vorhanden) auswählt. Dadurch kann der Prozessor, wenn das Signal „Feuer erkannt" z. B. mit einem niedrigem Rang eingestuft ist, bewirken, dass das Ausgabesignal zu einer Anzeige geleitet wird und/oder zu einer Warneinrichtung mit niedrigem Rang, um eine Bedienperson über die Möglichkeit eines Feuers zu alarmieren, was die Bedienperson daraufhin manuell untersuchen sollte. In einem solchen System kann der Prozessor veranlassen, dass das Ausgabesignal zu einer Hauptalarmeinrichtung geleitet wird, wenn ein hochrangiges Signal „Feuer erkannt" erzeugt wird. Während bevorzugt wird, dass der Prozessor an einem gewissen Punkt das Ausgabesignal ohne die Intervention einer Bedienperson an eine Alarmeinrichtung weiterleitet, ist es ersichtlich, dass das System so konfiguriert werden könnte, dass es einfach als Warnsystem für die Bedienperson wirkt, wenn der Benutzer dies wünscht.
  • Das System umfasst eine Bedienerschnittstelle, z. B. eine Tastatur und/oder eine Maus 34, mit dem eine Bedienperson die Verarbeitungsalgorithmen beeinflussen kann, um das System durch Einstellen von Parametern, welche die Algorithmen anwenden, kundenspezifisch zu gestalten mit dem Ziel, die Erkennungsleistung zu verbessern und/oder die Fehlalarmrate zu verringern. Mit der Bedienerschnittstelle ist es der Bedienperson auch möglich, dem System Befehle zuzuführen, z. B. um einen Alarm zu beenden, der als falsch gilt. Die Bedienperson kann beispielsweise das System so einstellen, dass es bestimmte Zonen in einem speziellen Sichtbereich ignoriert, oder sie kann für verschiedene Abschnitte des Sichtbereiches voneinander abweichende Erkennungsparameter zuordnen. Alternative Anzeigeformen und Eingabegeräte für das System können einen Berührungsbildschirm einschließen. Es sollte auch ersichtlich sein, dass das System ohne ein Bedienereingabegerät angegeben werden kann, wenn es nicht nötig oder nicht gewünscht ist, dass die Bedienperson auf die Algorithmen zugreifen kann. In diesem Fall kann das System so konfiguriert werden, dass es Daten und Befehle von einem geeigneten tragbaren Computergerät empfängt, um zu ermöglichen, dass bevollmächtigte Personen Einstellungen und Diagnosearbeiten durchführen können.
  • Das System kann einen Ereignisspeicher 40 umfassen, der ein fest eingebautes Teil des Prozessors oder ein Einzelplatzspeicher ist. Dieser Ereignisspeicher kann verwendet werden, um Bilder anzuhalten, die den Sichtbereich 14 zur Zeit der Erzeugung eines Signals „Feuer erkannt" zeigen. Solche Bilder können zur Feineinstellung des Systems verwendet werden, wenn beispielsweise eine beträchtliche Anzahl von Fehlalarmen oder Fehlbedienwarnungen erzeugt wurden, oder um über die Zeit, den Ort und/oder die Ursache eines speziellen Feuers zu berichten. Es sollte ersichtlich sein, dass das System so konfiguriert werden kann, dass in Antwort auf Befehle vom Prozessor und/oder Anweisungen von der Bedienperson im Ereignisspeicher 40 ein Bild registriert wird.
  • Die Verwendung von mehrgängigen Verarbeitungen ermöglicht einem Software-Programm und einem Prozessor die gleichzeitige Verarbeitung von Rauch- und Feueralgorithmen sowie mehrerer Videokanäle. Zur Erhöhung der Verarbeitungsgeschwindigkeit kann mehr als ein Prozessor verwendet werden.
  • Die Verwendung von gleichzeitiger Rauch- und Flammenerkennung verbessert die Fähigkeit des Systems, angemessene Antworten auf ein erkanntes Ereignis bereitzustellen, sei dies nun ein schnell entzündendes Feuer, bei dem nur wenig oder kein Rauch abgegeben wird, oder ein langsam verbreitendes Feuer, wie solche, die Rauch abgeben. Wenn z. B. ein System Rauch ohne Flamme in einer Zone erkennt, in der ein Dampfleck ein anfängliches Signal „Rauch erkannt" auslösen kann, kann ein Alarmereignis verhindert und/oder verzögert werden, bis eine Flamme erkannt wird. Im anderen Fall, also in Umgebungen, wo eine Flammenerkennung ohne das Vorhandensein von Feuer ausgelöst werden kann, z. B. dort, wo herkömmliche Natriumbeleuchtung vorhanden ist, kann ein Alarmsignal verzögert werden, bis Rauch erkannt wird. Damit bietet das System größere Flexibilität und Empfindlichkeit im Vergleich zu Systemen, die nur Rauch allein oder Feuer allein erfassen. Es versteht sich, dass das System, da es gleichzeitig das Vorhandensein von Rauch und Feuer überwachen kann, alle Arten von Feuer erkennt, seien es sich schnell entzündende oder sich langsam ausbreitende Feuer, die Rauch absondern.
  • Der Algorithmus „Feuer erkannt" 20, den der Prozesser verwendet, um das Vorhandensein einer Flamme zu erkennen, wird im Folgenden unter Bezugnahme auf 2 beschrieben. Der Algorithmus wird in einer Mischung aus LabViewTM und Microsoft® Visual++ verschlüsselt. Der Algorithmus „Feuer erkannt" umfasst eine Reihe von Schritten S1 bis S7.
  • In Schritt S1 wird das Videosignal in Form eines einfarbigen 640×480 Bildes in den Algorithmus eingegeben, in dem jedes Bildpixel einen Intensitätswert von 8 Bits Auflösung hat. Der Algorithmus verarbeitet mithilfe von linearen mathematischen Prozessen jedes Pixel einzeln.
  • In Schritt S2 wird das einfarbige 640×480 Bit Bild verwendet, um zwei einzelne Bilder mit einer durchschnittlichen Auflösung von 640×489 Bit bereitzustellen, die schnell eintretende Ereignisse herausfiltern. Dabei verwendet eines der Bilder einen 1.25 Hz eingestellten Filter und das andere Bild einen 4.0 Hz eingestelltem Filter. Anschließend wird die absolute Differenz zwischen Pixelwerten dieser zwei Bilder verwendet, um ein Bewegungsband-Bild mit 640×480 8 Bit zu erhalten, das Einheiten zeigt, die sich in dem Bild innerhalb eines Frequenzbands zwischen 1.25 und 4.0 Hz bewegen. Dieses Frequenzband entspricht dem Bereich der Bewegungsfrequenzen, die von Benzinflammen (engl.: petrol flames) gezeigt werden, die empirisch beobachtet werden.
  • In dem ersten Durchschnittsbild wird eine dimensionslose Zeitkonstante k1 verwendet, um ein 640×480 8Bit Bild zu erzeugen, das Ereignisse herausfiltert, die schneller als 4 Hz eintreten.
  • k1 wird nach der folgenden Beziehung berechnet: k1 = 1/(4 Hz × Zeit in Sekunden zwischen aufeinander folgenden Einzelbildern)
  • Die Konstante k1 wird dann verwendet, um auf folgende Weise ein Bild zu erzeugen, das Ereignisse herausfiltert, die mit höheren Frequenzen als 4 Hz eintreten: pM1 = k1 × (Live Pixel Bildwert) + (Wert von pM1 vom vorhergehenden Einzelbild)wobei pM1 ein gleitender Durchschnitt mit einem Anfangswert von Null ist. Jedes Pixel im 640×480 Live-Bild hat einen entsprechenden pM1-Wert, der zur Vervollständigung des Durchschnittsbildes verwendet werden kann.
  • Im zweiten Durchschnittsbild wird eine dimensionslose Zeitkonstante k2 verwendet, um ein Bild mit einer Auflösung von 640×480 8 Bit zu erzeugen, das Ereignisse herausfiltert, die schneller als mit 1.25 Hz eintreten.
  • k2 wird nach der folgenden Beziehung berechnet: k2 = 1/(1,25 Hz × Zeit in Sekunden zwischen aufeinander folgenden Einzelbildern)
  • Die Konstante k2 wird dann verwendet, um auf folgende Weise ein Bild zu erzeugen, das Ereignisse herausfiltert, die mit höheren Frequenzen als 1,25 Hz eintreten: pM2 = k2 ×(Live Pixel Bildwert) + (1 – k2) × (Wert von pM2 vom vorhergehenden Einzelbild)wobei pM2 ein gleitender Durchschnitt mit einem Anfangswert Null ist. Jedes Pixel im 640×480 Bild hat einen entsprechenden pM2-Wert, der zur Vervollständigung des Durchschnittsbildes verwendet werden kann.
  • Wenn die zwei 640×480 zeitgefilterten Bilder mit Pixelwerten, die gleich pM1 und pM2 sind, erzeugt wurden, wird ein so genanntes Bewegungsband-Bild mit einer Auflösung von 640×480 erzeugt, indem jedes dieser Pixel dieser Durchschnittsbilder genommen und die absolute Differenz zwischen pM1 und pM2 berechnet wird, indem der Betrag der Differenz zwischen jedem der einzelnen Pixels ermittelt wird, indem man pM1 von pM2 subtrahiert. Auf diese Weise erhält man ein 640×480 Bild, das nur Ereignisse zeigt, die im Frequenzband zwischen 1.25 Hz und 4.0 Hz eintreten. Jedes Pixel des Bewegungsband-Bildes hat eine 8 Bit Auflösung.
  • In Schritt 3 wird, wenn ein Bild unter Verwendung des Bewegungsbandes gefiltert wurde, auf das gefilterte Bild ein Schwellenwert angewendet, um in dem von k1 und k2 definiertem typischen Frequenzband einen Kurvenverlauf von signifikanten Bewegungen zu erzeugen. Die Beobachtung der zeitlichen Dynamiken dieser hervorgehobenen Pixel wird verwendet, um zu entscheiden, ob in dem Videobild Flammen vorhanden sind oder nicht. Der beste Wert für diesen Schwellenwert, der auf der Beobachtung von Benzinflammen im Außenbereich basiert, entspricht einem Wert von 5 % des Dynamikbereichs von Werten, in dem Bewegungsband-Bild mit 640×480 8 Bit, wo t1 = 13, der auf die nächste volle Zahl aufgerundet wird. In der in LabViewTM geschriebenen Anwendung kann die Bedienperson des Systems diesen Wert mithilfe der grafischen, vom LabViewTM bereitgestellten Bedienerschnittfläche auf einen beliebigen Wert zwischen 0 und 255 einstellen. Wenn ein Pixelwert des Bewegungsband-Bildes größer als der Schwellenwert ist, wird er als 1 in den Schwellenwert-Verlauf eingetragen. Wenn ein Pixelwert des Bewegungsband-Bildes kleiner als der Schwellenwert ist, wird er als 0 in den Schwellenwert-Verlauf eingetragen. Der Schwellenwert-Verlauf ist ein Bool'sches-Bild mit 640×480 Pixeln, in dem Pixel, die den Schwellenwert nicht überschreiten, einen Wert von Null und Pixel, die den Schwellenwert überschreiten, einen Wert von Eins haben.
  • In Schritt S4 ist der „Erkennungs-Verlauf" (engl.: awareness map) eine Teilmenge des „Schwellenwert-Verlaufs". Um den Sensibilisierungs-Verlauf zu erzeugen hat jedes in Schritt S3 definierte Pixel im Schwellenwert-Verlauf einen Erkennungspegel, der die Wahrscheinlichkeit dafür anzeigt, dass die Flamme in diesem bestimmtem Pixel vorhanden ist. Wenn der Erkennungspegel einen bedienerdefinierten Schwellenwert überschreitet, der als Integer-Zahl t2 (Nominalwert von 40) definiert ist, dann wird das Pixel, das den Schwellenwert überschreitet, mit einem Binärwert 1 im Sensibilisierungs-Verlauf registriert.
  • Der Sensibilisierungs-Verlauf ist ein Bool'sches 640×480 Bild. Für jedes der Pixel im Sensibilisierungs-Verlauf wird eine Integer-Zahl erzeugt, die als Erkennungspegel definiert ist. Der Wert des Erkennungspegels wird berechnet, indem aufeinander folgende Einzelbilder des Sensibilisierungs-Verlaufs verglichen werden, da jedes der Pixel gleich Null ist.
  • Wenn sich im Sensibilisierungs-Verlauf zwischen aufeinander folgenden Einzelbildern ein Pixel von 1 auf 0 oder von 0 auf 1 ändert, dann wird für dieses Pixel zu dem Wert des Erkennungspegels 2 hinzugefügt. Wenn sich ein Pixel zwischen aufeinander folgenden Einzelbildern im Sensibilisierungs-Verlauf nicht ändert (z. B. bleibt 0 oder 1), dann wird vom Erkennungspegel 1 subtrahiert. Der Minimalwert des Erkennungspegels ist Null, d.h. wenn der Erkennungspegel negativ wird, wird dieser sofort auf Null gestellt.
  • Dies bedeutet, dass Flackerbewegungen innerhalb des von k1 und k2 definierten Frequenzbandes für jedes einzelne Pixel einen raschen Anstieg im Erkennungspegel bewirken. Beobachtungen zufolge sind diese Flackerbewegungen für Flammen typisch.
  • In Schritt S5 wird eine Anzahl von Parametern derart berechnet, dass der Algorithmus entscheiden kann, ob in den verarbeiteten Videobildern eine Flamme vorhanden ist. Diese Parameter können in einem Bewegungsdiagramm dargestellt oder verwendet werden, um einen Vertrauenswert für ein Ereignis „Flamme erkannt" zu bestimmen. Der Parameter Plot0 ist eine Konstante, die einer Integer-Zahl – Alarmstufe genannt – entspricht, die vom Benutzer mit einem Standardwert 20 definiert wird. Wenn der unten beschriebene Parameter Plot2 die Alarmstufe, die einen Nominalwert 20 hat, überschreitet, wird in dem System eine Flamme registriert. Niedrige Werte in der Alarmstufe bedeuten, dass der Algorithmus schnell auf mögliche Flammen in dem digitalisierten Bild reagiert, aber anfällig für Fehlentscheidungen ist. Hohe Werte in der Alarmstufe bedeuten, dass der Algorithmus unempfänglich für Flammen-Fehlentscheidungen ist, aber langsam auf mögliche Flammen in dem digitalisiertem Bild reagiert.
  • Die Parameter Plot1 und Plot2 werden folgendermaßen durch horizontales Abtasten des Sensibilisierungs-Verlaufs berechnet. Wenn die Abtastung von links nach rechts über jede horizontale Linie des Sensibilisierungs-Verlaufs erfolgt, werden die Werte benachbarter Pixel verglichen, und ein Wert in einen Kantenzähler (engl.: edge counter) eingegeben, der bei einem Wert Null beginnt. Wenn benachbarte Pixel gleich sind, wird zu dem Kantenzähler nichts hinzugefügt. Sind benachbarte Pixel unterschiedlich, wird zu dem Kantenzähler 1 hinzugefügt. Gleichzeitig wird die Gesamtanzahl der Pixel mit dem Binärwert 1 gezählt und in einen Pixelzähler hinzugefügt. Dieser Vorgang wird für jede der 480 Linien des Bildes (von oben nach unten) durchgeführt, und die Werte für den Kantenzähler und den Pixelzähler werden zusammengezählt. Diese sind:
    Kantensumme = Summe der horizontalen Kantenübergänge in einem Sensibilisierungs-Verlauf
    Pixelsumme = Gesamtsumme der Pixel mit einem Binärwert 1 im Sensibilisierungs-Verlauf
  • Parallel dazu werden die Koordinaten der Pixel mit dem Binärwert 1 zur Kenntnis genommen. Unter Berücksichtigung der folgenden Mengen wird eine Region definiert, die von Interesse ist:
    x1 = minimale x-Koordinate
    x2 = maximale x-Koordinate
    y1 = minimale y-Koordinate
    y2 = maximale y-Koordinate
  • Der Bereich der Region, die von Interesse ist, wird definiert als: ROIBereich = (x2 – x1) ×(y2 – y1)
  • Der Parameter Plot1 wird folgendermaßen berechnet: Plot1 = (Pixelsumme – Kantensumme)/ROIBereich
  • Dies ist ein Maß für die Spärlichkeit des Flackerns im Bild und kann verwendet werden, um zwischen baumartigen Objekten und dicht gepackter Flamme wie Objekte zu unterscheiden. Wenn Plot1 kleiner als Null ist, dann ist das Bild spärlich; und wenn Plot1 größer als Null ist, ist das Bild dicht.
  • Der Parameter Plot2 wird folgendermaßen berechnet: Plot2 = Pixelsumme/ROIBereich
  • In Schritt S6 werden die oben beschriebenen „Plot"-Parameter unter Verwendung einer benutzerdefinierten, dimensionslosen Zeitkonstante k3 mit einer Zeitkonstante von 8.0 Sekunden geglättet, bevor die endgültige Entscheidung „Flamme vorhanden" getroffen wird. K3 wird wie folgt berechnet: k3 = 8.0s/(Zeit in Sekunden zwischen aufeinander folgenden Einzelbildern)
  • Die Konstante k3 wird zwischen aufeinander folgenden Werten von Plot1 und Plot2 angewendet, die von aufeinander folgenden Videobildern erhalten werden, welche die gleichen, oben beschriebenen Filtermethoden verwenden wie k1 und k2. Dies verringert den Geräuschpegel in den grafisch dargestellten Parametern und reduziert die Fehlalarmrate. Die Entscheidung, ob in dem Videobild eine Flamme vorhanden ist, hat zwei Modi, welche die Bedienperson auswählen kann; einen Normalmodus und einen Baumfiltermodus.
  • Der Normalmodus der Entscheidung „Flamme vorhanden" kommt zum Einsatz, wenn es in dem Bild keine baumähnlichen Objekte gibt. In diesem Modus wird Plot1 ignoriert. Hier wird ein Alarm ausgelöst, wenn der Parameter Plot2 größer als der Parameter Plot1 ist.
  • Im Baumfiltermodus wurde festgestellt, dass die von dem Algorithmus erkannte Flackerbewegung für ein baumähnliches Objekt spärlich verteilt und für ein Feuer dicht verteilt war. Ein positiver Wert von Plot1 zeigt eine dicht gepackte Anordnung von flackernden Pixeln (z. B. eine Flamme); und ein negativer Wert von Plot1 zeigt eine spärlich gepackte Anordnung von flackernden Pixeln (z. B. sich im Wind bewegende Blätter an einen Baum).
  • Der Alarm für eine Flamme mit einem Baumfilter erfolgt nur, wenn Plot2 größer als Plot0 und Plot1 größer als Null ist.
  • Die Erfinder haben herausgefunden, dass die Aufnahme eines Baumfilters die Selektivität des Systems erhöht, aber auch die Menge Zeit erhöht. Sie führt jedoch auch dazu, dass mehr Zeit notwendig ist, um zu entscheiden, ob in dem Bild eine Flamme vorhanden ist.
  • Der oben beschriebene Algorithmus wurde durch empirische Methoden optimiert, und die Konstanten, welche die Funktion des Algorithmus bestimmen, können so gewählt werden, dass optimale Ergebnisse in der Szenenumgebung erreicht werden.
  • Ferner ist zu erkennen, dass Systeme, die farbige Videobilder oder unterschiedliche Pixelauflösungen umfassen, von solch einem Algorithmus verarbeitet werden können. Daher sind für den Fachmann Erweiterungen zu dem Algorithmus ersichtlich.
  • Nunmehr folgt eine Beschreibung eines geeigneten Raucherkennungsalgorithmus. Für die Zwecke dieses Algorithmus enthält der Prozessor einen Komparator, der die Unterschiede zwischen verschiedenen Bildern und die Pixel, aus denen das Bild besteht, analysiert. Zu diesem Zweck vergleicht der Komparator zunächst das Bild mit vorherigen Bildern und erhält durch Subtraktion ein Signal, das den Unterschied zwischen aufeinander folgenden Bildern darstellt. Das System enthält auch eine einstellbare Schwellenwert-Regulierung (engl.: threshold control level) zur Empfindlichkeitseinstellung und Mittel, mit denen Änderungen eliminiert werden können, die Signalgeräusche darstellen.
  • Daraufhin wird die Ausgabe des Komparators in Übereinstimmung mit dem Raucherkennungsalgorithmus der Hauptverarbeitung des Signals ausgesetzt. Der Prozessor versucht im Wesentlichen zu erkennen, ob in den einzelnen Pixeln eines Einzelbildes und in den Unterschieden zwischen benachbarten Pixeln Veränderungen auftreten, die durch Rauchpartikel verursacht werden könnten.
  • Der Prozessor beinhaltet eine Anzahl an einzelnen Analysen, die mittels geeigneter Computer Software eine mathematische Analyse im Signalprozess als Teil der Ausstattung umfassen:
    Das Signal verarbeitende Mittel muss eine Hardware und/oder Software beinhalten, damit sie die ausgewählten Änderungsbedingungen erkennt, sodass das Vorhandensein einer Rauchbedingung erfasst werden kann.
  • Die Analyse kann auf dem Folgenden basieren:
  • Darstellung und Konzepte
  • Das System hat zwei Bilder, mit denen es arbeitet, in dem ein Bild als geordneter Satz von Pixelintensitäten definiert ist.
  • Zuerst muss der Satz von möglichen Pixelintensitätswerten definiert werden
    Z = <0, 1, 2, 3, ..., M>
    wobei M der maximale Pixelwert ist.
  • Ein Bild ist definiert als ein geordneter Satz von Pixelwerten, wobei ein Pixelwert definiert ist als:
    ij ∊ Z
  • Daher kann ein Bild wie folgt gekennzeichnet werden
    I = ⟨i0, i1, i2, i3, i4, ..., iN
    wobei N die Anzahl der Pixel in einem Bild bezeichnet.
  • Das System stellt zwei Bilder bereit, um die verschiedenen Änderungen auszuwerten. Diese Bilder sind
    R das Referenzbild,
    C das aktuelle Bild.
  • Wird eine Änderung erkannt, so wird diese Änderung verwendet um eine Teilmenge der Bilder zu definieren. R ⊆ R C ⊆ C
  • Sind diese Teilmengen definiert, so werden die folgenden Maße ausgewertet:
  • Konvergenz zu einem gemeinsamen Mittelwert
  • Es gibt das Referenzbild R und das aktuelle Bild C. Der Satz, bei dem die Pixel als geändert gelten, wird mit C und R gekennzeichnet.
  • m sei der Mittelwert der Änderungen in C, d. h.
    Figure 00170001
    wobei
    #S die Anzahl der Elemente in dem geordneten Satz S bezeichnet und
    ΣS die Summe aller Elemente in dem geordneten Satz S bezeichnet.
  • Sobald der Wert m definiert ist, wird die Anzahl der Pixel, deren Intensität bezüglich ihres jeweiligen Wertes im Referenzbild dem Wert m nahe kommt, ausgewertet. Mit den gleichen Bildern wird auch die Anzahl der Pixel, deren Intensität von diesem Mittelwert abweicht, berechnet. nhin_zu = Σ{Zeichen (C_ – R) = Zeichen (C_ – m)} nweg_von = Σ{Zeichen (C_ – R ) ≠ Zeichen (C_ – m)}wobei die Funktion Zeichen für Skalarwerte wie folgt definiert ist. Wenn sie an einen geordneten Satz angewandt wird, ist sie als
    Figure 00170002
    definiert, um zu einem geordneten Satz an Werten zurückzukehren.
  • Diese zwei Werte stellen Maße gemäß der „Konvergenz zu einem gemeinsamen Mittelwert" bereit und werden an das Entscheidungssystem weitergeleitet.
  • Aus statisch wird dynamisch
  • Für jeden untersuchten Bereich wird die Konsistenz des Änderungsbereichs im Zeitverlauf ausgewertet, um zu beurteilen, ob dieser Bereich bezogen auf seine Gesamtdarstellung dynamisch oder statisch ist. Beleuchtungsänderungen verändern das Bild, doch die Gesamtdarstellung ändert sich nicht. Die Korrelationsfunktion wird verwendet, um diese Ähnlichkeit im Zeitverlauf auszuwerten, da sie sowohl gegenüber Maßstabsänderungen als auch gegenüber Verstärkungsänderungen unveränderlich ist. Verdunkelt ein Objekt den Hintergrund, indem es sich in den interessanten Bereich bewegt, so wird sich die Darstellung in dem interessanten Bereich ändern. Schwankt die Korrelation im Zeitverlauf ausreichend, so gilt der Bereich als dynamisch. Diese Konsistenzmaßnahme wird an das Entscheidungssystem weitergeleitet.
  • Kanteninhalt
  • Eine Änderung der Kanteninformation wird als Änderung beim Wert des Kantenmaßes definiert. Das Kantenmaß ist definiert als die Summe der Antworten eines Standardableitungsfilterkerns (engl.: standard derivative filter kernel), bei dem durch den vorherigen Schritt Änderungen erkannt wurden. Ein einsetzbarer Standardfilter ist der Kantenfilter „Sobel". Dieses Maß an Kanteninhalt wird an das Entscheidungssystem weitergeleitet.
  • Formeigenschaften
  • Verschiedene Formeigenschaften werden verwendet, einschließlich Dichte und Bildseitenverhältnis (engl.: aspect ratio).
    • – Dichte ist definiert als die durchschnittliche Anzahl der besetzten Nachbarn für alle Elemente des Änderungssatzes. Ein „Vierer-Konnektivitätsschema" (engl.: "four connectivity" scheme) wird angepasst und entsprechend liegt der durchschnittliche Dichtewert im Bereich von 0 bis 4.
    • – Das Bildseitenverhältnis ist das Verhältnis der Höhe zur Breite der veränderten Region.
  • Wenn Dichte, Bildseitenverhältnis und Pixelzahl (d. h. die Anzahl der veränderten Pixel in einem Bereich) zusammengenommen werden, beschreiben sie einige der Formeigenschaften des veränderten Bereichs. Diese Werte werden an das Entscheidungssystem weitergeleitet.
  • Systembeschreibung
  • Die Raucherfassungssoftware wurde in C++ geschrieben und unter Verwendung des WATCOM C++ Compilers übersetzt. Die Eigenschaften der unten beschriebenen Software sind in etwa 50 Quellcodedateien und weiteren 50 Kopfdateien enthalten und umfassen insgesamt schätzungsweise 40 000 Codelinien.
  • ÜBERSICHT ÜBER DEN RAUCHERFASSUNGSALGORITHMUS
  • Der Raucherfassungsalgorithmus untersucht im Allgemeinen die folgenden Merkmale eines digitalisierten Videostroms um festzustellen, ob Rauch erkannt wurde:
    Pixel (oder Gruppen von Pixeln), die sich auf einen Mittelwert zubewegen;
    Kanteninformation Kantendefinition – diese können zunehmen oder abnehmen, wenn Rauch auftritt (je nachdem, wie sie zuvor waren);
    Ob das Bild statisch oder dynamisch ist;
    Auftreten neuer Formen im Bild – Vergleich charakteristischer Formen mit Rauch anzeigenden Formen.
  • Das System erarbeitet die Unterschiede zwischen dem aktuellen Bild und einem Referenzbild. Wichtige Teile der Analyse sind die folgenden:
    Wo sich die Bildpixel scheinbar geändert haben, arbeiten die Algorithmen aus, ob die Bildpixel sich einem gemeinsamen Mittelwert nähern oder davon abweichen;
    Kanten – Summe der Antworten eines Standardabweichungsfilters, bei dem zuvor Änderungen erkannt wurden (Kantenfilter „Sobel");
    Korrelationsfunktion zur Bestimmung der Ähnlichkeit im Zeitverlauf;
    Form: Dichte der „veränderten" Region – die vier nächstmöglichen Nachbarn;
    Bildseitenverhältnis; Gesamtbereich.
  • ZONEN
  • Zonen sind rechteckige Regionen, die vom Benutzer aus dem Gesamtbild ausgewählt werden, wenn das System installiert wird. Sie sind typischerweise so angeordnet, dass sie wahrscheinliche Bereiche abdecken, an denen Rauch entstehen kann, und (was noch wichtiger ist) Problembereiche der Szene nicht abdecken. Jede Zone wird völlig separat verarbeitet und die Ausgabeelemente jeder Zone können gegebenenfalls kombiniert werden, um Alarm auszulösen. Pixel in der Zone können zudem so eliminiert werden, dass sie nicht in die Berechnung eingeschlossen werden, zum Beispiel beim Glühfaden einer Glühbirne oder einem glänzenden Metallgegenstand, der in der Sonne glitzert. Wiederum werden diese vom Benutzer ausgewählt, wenn das System in Auftrag gegeben wird. Zu jeder Zeit gibt es zwei Hauptsätze an Bilddaten für die Zone – das aktuelle Bild und das Referenzbild. Die Pixel in diesen Bildern sind in nachstehender Erörterung mit x bzw. xr gekennzeichnet.
  • In jeder Zone wird ein Satz von n Parametern errechnet. Diese Parameter werden in einen n-dimensionalen „Vektor" umgeformt, der einen „Merkmals-" Raum definiert.
  • Bilddaten (Ebenen), die im Programm gespeichert sind
  • Die folgenden Sätze an Schlüsselbildebenen (engl.: key image plane sets) sind von der Software für jede Zone gespeichert:
    aktuell (current) Bilddaten
    Referenz (reference) Referenzbilddaten
    Änderung (change) rohe veränderte Pixel
    Umgebung (environment) kantenempfindliche Detektorwerte von Referenzbilddaten
    Filter (filter) die kombinierte „Maske"
    vorherig (previous) vorheriger Wert des „Filters"
    entfernen (eliminate) Maske der Pixel manuell entfernen
  • Die Bilder werden in regelmäßigen Abständen von der Erfassungskarte erworben. Nach der Anpassung zur Normalisierung von Helligkeit und Kontrast vergleicht das System das als letztes erworbene Bild (das aktuelle) mit dem Referenzbild. Wenn sich die Pixel um mehr als einen anpassbaren Schwellenwert unterscheiden (Kamerageräusche können auch beachtet werden), dann gilt das Pixel als verändert.
  • Das Referenzbild wird periodisch erworben, wenn das System keine Änderungen in der Szene erkannt hat, und wenn das System feststellt, dass die aktuelle Szene dem Referenzbild nicht mehr genug ähnelt. Dieses Referenzbild wird analysiert, um unter Verwendung des nachstehend beschriebenen KANTEN-Algorithmus eine „Umgebungsmaske" zu erzeugen. Das zeigt im Wesentlichen an, wo in der Zone ein Kantendetail ist.
  • Die Konstruktion einer Pixel-für-Pixel „Filter"-Maske (engl.: pixel-by-pixel "filter" mask), die in den nachstehenden Berechnungen verwendet wird, erfolgt durch Kombinieren der veränderten Pixel mit der Umgebungsmaske. Die Maske der veränderten Pixel wird erst in die endgültige Filtermaske kopiert, wenn die Größe des Unterschieds zwischen dem aktuellen und dem Referenzpixel den Kantendetail-Pixelwert übersteigt. Manuell als problematisch ausgewählte Pixel werden in diesem Stadium ebenfalls von dieser Maske entfernt.
  • Einfache Bildverarbeitungsvorgänge
  • Ein großer Satz verschiedener Bildverarbeitungsvorgänge wird anhand der Zonenbilddaten ausgeführt. In einigen Vorgängen werden nur die unmaskierten Pixel verwendet, in anderen wird mit dem gesamten Pixelsatz gearbeitet. Diese Parameter sind die Rohdaten, die in die endgültigen Rauch-Erfassungsalgorithmen eingegeben werden. Es handelt sich bei allen um relativ einfache Bildverarbeitungsgrundelemente, doch sind die in den Algorithmen verwendeten Definitionen nachstehend der Vollständigkeit halber angeführt.
  • MITTELWERT
  • Dies ist der einfache Mittelwert der N Pixelwerte x, in der Zone.
  • Figure 00220001
  • HIN_ZU_GEMEINSAMEM_MITTELWERT
  • Dieser Parameter zählt die Anzahl der unmaskierten Pixel im Bild, die vom Mittelwert mit dem gleichen. Zeichen wie vom Referenzbild abweichen. HIN_ZU = Σ[sign (x – xr) = sign ((x) – xr)]
  • WEG_VON_GEMEINSAMEM_MITTELWERT
  • Dieser Parameter zählt die Anzahl der unmaskierten Pixel im Bild, die vom Mittelwert mit dem entgegengesetzten Zeichen wie vom Referenzbild abweichen. WEG_VON = Σ[sign(x – xr) = sign((x) – xr)]
  • COFGX
  • Die x-Koordinate des Mittelwerts der unmaskierten Pixel in der Zone (sie verändert sich, wenn Bereiche in der Zone ausmaskiert werden).
  • COFGY
  • Die y-Koordinate des Mittelwerts der unmaskierten Pixel in der Zone (sie verändert sich, wenn Bereiche in der Zone ausmaskiert werden).
  • GRÖSSE
  • Die Gesamtzahl der Pixel in der Zone, einschließlich der maskierten Pixel.
  • ZAHL
  • Die Gesamtzahl der unmaskierten Pixel in der Zone (d. h. die maskierten Pixel ausgenommen).
  • KANTE
  • Der Kanteninhaltsalgorithmus betrachtet für jedes unmaskierte Pixel im aktuellen Bild die vier benachbarten Pixel (oben/unten/links/rechts). Er addiert die Summe der Größe der Unterschiede zwischen dem linken und dem rechten, zwischen dem oberen und dem unteren Pixel, sofern diese Pixel einen durch den Benutzer festgelegten Schwellenwert übersteigen. KANTE = Σ[{Xoben – xunten| + |xlinks – xrechts|} (wenn > Schwellenwert)]
  • KANTEN_REF
  • Er berechtet die KANTEN-Funktion, doch basierend auf den Referenzbildpixeln anstatt basierend auf den Pixeln des aktuellen Bilds.
  • KORRELATION
  • Hierbei handelt es sich um die Korrelation zwischen dem Referenz- und dem aktuellen Bild. Sie wird wie folgt berechnet:
    Figure 00240001
  • Die Korrelationsfunktion wird als Gesamt-„Gate" (engl.: overall "gate") zum Erfassungsvorgang verwendet. Ist diese Korrelation größer als eine voreingestellte ÄHNLICHKEIT, dann erfolgt in der Zone keine weitere Verarbeitung. Dies entspricht dem Fall, dass das Bild im Wesentlichen gleich dem Referenzbild ist.
  • KORRELATION_MASKIERT
  • Die maskierte Korrelation berechnet die gleiche Funktion wie die vorstehende Korrelationsfunktion unter Berücksichtigung nur jener Pixel, die nicht maskiert sind.
  • VARIANZ
  • Hierbei handelt es sich um die Standardvarianz des Pixelwerts x, einschließlich aller Pixel, und wird wie folgt berechnet:
    Figure 00240002
  • VARIANZ_REF
  • Hierbei handelt es sich um die Standardvarianz der Pixelwerte xr, einschließlich aller Pixel, und wird wie folgt berechnet:
    Figure 00240003
  • SCHIEFE, KURTOSIS und FÜNFTE
  • Diese Parameter betrachten die Verteilung aller Pixelwerte im aktuellen Bild. Als Beispiel können die Pixelwerte eine Gauß'sche Verteilung um den Pixelmittelwert herum aufweisen oder die Verteilung kann asymmetrisch sein oder auch nicht gaußförmig. Die Parameter wie Schiefe (engl.: skew), Kurtosis und Fünfte sind bekannte, in der Statistik verwendete Parameter zur Analyse der nicht-Gauß'schen Form von Verteilungen. Sie werden wie folgt berechnet:
    Figure 00250001
  • SCHIEFE_REF, KURTOSIS_REF und FÜNFTE_REF
  • Hierbei wird, wie oben, die Verteilung im Referenzbild anstelle des aktuellen Bildes betrachtet.
  • KOMPAKTHEIT
  • Bei dieser Funktion werden zu jedem unmaskierten Pixel die vier nächsten Pixel betrachtet und es wird die mittlere Anzahl der unmaskierten berechnet.
  • Die Opazität wird, nur für die unmaskierten Pixel, wie folgt berechnet:
    Figure 00250002
  • LAUFENDER_KORRELATIONS_MITTELWERT
  • Hierbei handelt es sich um die Standardabweichung der vorstehend beschriebenen KORRELATION. Dies ist ein laufender Mittelwert, da er einfach aus einem Satz laufender Gesamtsummen berechnet wird.
  • LAUFENDER_MITTELWERT_MITTELWERT
  • Hierbei handelt es sich um den Mittelwert der maskierten Korrelation – als laufender Wert.
  • KANTEN_BEWEIS_BEWEIS
  • Dies basiert auf einer Maske bestimmter Kanten im Bild. Diese Maske wird von einem oder zwei Pixel überall verkleinert. Die unmaskierten Pixel im aktuellen und im Referenzbild werden unter Verwendung des oben beschriebenen KANTEN-Algorithmus untersucht. Die Routine berechnet dann das mittlere Verhältnis der Pixel im aktuellen KANTEN-Bild und im KANTEN-Referenzbild im unmaskierten Bereich unter der Voraussetzung, dass das Referenzbild einen Wert ungleich Null enthielt.
  • PROZENTSATZ_ÄNDERUNG_ÄNDERUNG
  • Hierbei handelt es sich um eine Maßnahme der Prozentsatzänderung bei der Anzahl der maskierten Pixel zwischen der vorherigen und der aktuellen „Filter-"Maske. Es handelt sich um Boole'sche Masken und die Prozentsatzänderung wird einfach auf Grundlage der Anzahl der Pixel berechnet, die in nur einem der zwei Bilder ungleich Null (WAHR) sind und sie werden mit der Anzahl, die in einem oder beiden ungleich Null ist, normalisiert.
  • Die Filtermasken werden vor dieser Berechnung „ausgehöhlt" unter Verwendung eines Algorithmus, der nur WAHRE Pixel beibehält, wenn alle ursprünglichen vier Nachbarn ebenfalls WAHR waren. Dies ist eine Art des Filterns zur Reduzierung des Lärms.
  • Regelbasierte Analyse
  • Die regelbasierte Analyse wird anfänglich verwendet, um zu bestimmen, ob eine Änderung im Bild aufgetreten ist und ob diese Änderung signifikant ist. Wenn ja, wird eine weitere Analyse durchgeführt, um zu sehen, ob die Änderung mit Rauch zusammenhängen könnte oder ob sie beispielsweise mit einer vorbeilaufenden Person zusammenhängt.
  • Die regelbasierte Analyse verwendet ein Speichersystem, bei dem für jede erfüllte Regel Punkte zugeteilt werden. Übersteigt die Gesamtzahl der Punkte ein (variables) Kriterium (typischerweise 90 % der Maximalpunktzahl), so bewegt sich die Analyse zur nächsten Stufe.
  • Die Analyse wird für einen Bereich durchgeführt, der eine Teilmenge des Zonenbereichs ist und von den Kanten der unmaskierten Pixel begrenzt wird.
  • Überprüfung der Nicht-Korrelation
  • Ist die laufende Korrelation für diese Zone sehr klein (LAUFENDER_KORRELATIONS_MITTELWERT < 0,1), so bedeutet dies, dass das Referenzbild und das aktuelle Bild sich nicht mehr gleichen (z. B. weil sich die Kamera bewegt hat). Wenn sich das Bild nicht bewegt (PROZENTSATZ_ÄNDERUNG < 0,3), dann ist es Zeit, das Referenzbild der Zone zu aktualisieren und die aktuelle Rauchüberprüfung zu vernachlässigen.
  • Korrelation unter dem Schwellenwert
  • Ist die Korrelation niedriger als der benutzerdefinierte Schwellenwert, so werden zwei Punkte erreicht, ansonsten wird die Überprüfung aufgegeben.
  • Hin zu oder weg von gemeinsamem Mittelwert
  • Tendieren die Pixelwerte zum gemeinsamen Mittelwert, so kann dies das Vorhandensein von Rauch anzeigen (das ganze Bild wird gleichmäßig grau). Der Algorithmus betrachtet das Verhältnis zwischen den Bedingungen „hin zu" und „weg von" und wenn dieses ein vom Benutzer einstellbares Verhältnis übersteigt, so werden drei Punkte erreicht.
  • Kantenanteil-anteil
  • Der „Kantenanteil" des Bereichs ist das Verhältnis der KANTEN zur ZAHL der Pixel im Bild. Dies wird sowohl für das aktuelle als auch für das Referenzbild berechnet. Befindet sich der Kantenanteil des aktuellen Bilds außerhalb eines voreingestellten Bandes, werden drei Punkte erreicht. Zusätzliche drei Punkte werden erreicht, wenn der Kantenanteil vom Referenz-Kantenanteil um mehr als einen voreingestellten Prozentsatz abweicht – selektiv entweder nach oben oder nach unten.
  • Kompaktheit
  • Die KOMPAKTHEIT (vorstehend definiert) muss innerhalb eines voreingestellten Bandes liegen. Weicht sie davon ab, so werden drei Punkte erreicht.
  • Kantenbeweis
  • Der KANTEN_BEWEIS wird durch das Vorhandensein von Rauch verringert. Fällt er unter einen voreingestellten Schwellenwert, so werden drei Punkte erreicht.
  • Punktzahl gegenüber Kriterien
  • Beim Aufstellen des Systems darf der Benutzer eine Teilmenge der erhältlichen Tests festlegen, die ausgeführt werden sollen. Die Maximalpunktzahl ist kleiner und dies sollte bedacht werden, wenn festgelegt wird, ob die Punktzahl 90 % der Maximalpunktzahl überschreitet. Wenn es diese überschritten hat, wird sodann eine Bayes'sche Analyse durchgeführt.
  • Bayes'sche Analyse
  • Die Bayes'sche Analyse stellt ein gut begründetes Entscheidungskriterium bereit, bei dem die Ko-Varianz der Merkmale beachtet wird und sie sieht die Möglichkeit vor, zwischen verschiedenen Ereignisklassen (Fehl- und richtiger Alarm) zu unterscheiden. Eine wichtige Tatsache zur Festlegung der Merkmale, die bei der Bayes'schen Analyse verwendet werden sollen, ist, dass die Merkmale gegenüber äußeren Einflüssen wie Hintergrund und Beleuchtung unveränderlich sein sollen. Der Algorithmus kann einige Varianz bewältigen, doch sollten die Effekte äußerer Einflüsse im Allgemeinen bei einem Minimum gehalten werden.
  • Bayes'sche Statistiken sind ein nützliches Werkzeug für Entscheidungen in mehrdimensionalen Systemen wie diesem. Die Parameter (MITTELWERT, HIN_ZU_GEMEINSAMEM_MITTELWERT etc.) werden miteinander zu einem n-dimensionalen Vektor kombiniert. Diese Vektoren werden verwendet, um das System zu „trainieren", indem ein Satz Statistiken aufgebaut wird. Genauer gesagt, speichert das System Daten für Fehl- und richtigen Alarm in verschiedenen Klassen. Für einen n-dimensionalen Vektor v werden die Summen s und S für N verschiedene Alarmfälle wie folgt berechnet (separat für Fehl- bzw. richtigen Alarm). s = Σv S = ΣvvT
  • Die Bayes'sche Entscheidungsfunktion nimmt einen Vektor v aus der aktuellen Zone/Region und berechnet wie folgt einen realen Entscheidungswert d:
    Figure 00290001
    d wird für die zwei Referenzklassen berechnet – Fehl- und richtig – wodurch sich dn und dr ergeben. Ist dr größer als dn, so signalisiert die Bayes'sche Analyse einen Alarmzustand.
  • Ergeben sich Probleme mit überlappenden Antworten bei dn und dr, so kann dies gelöst werden, indem die Anzahl der Merkmale erhöht und damit zu einem höherdimensionalen Raum übergegangen wird (die Wahrscheinlichkeit, dass Wolken zufällig überlappen sinkt, wenn die Dimensionalität erhöht wird).
  • Kombination aus Regeln und Bayes'scher Analyse
  • Es ist sehr wichtig, dass das Raucherfassungssystem Falschalarm verhindert. Dies ist ein Schlüsselmerkmal des Systems.
  • Daher ist ein wichtiges Merkmal des Algorithmus die Kombination einer regelbasierten Analyse mit einer statistikbasierten Analyse und insbesondere mit einer auf der Bayes'schen Analyse basierten. Zuerst erfolgt die regelbasierte Analyse und wenn bestimmte Kriterien erfüllt sind, wird die Bayes'sche Analyse angeregt.
  • Häufig stimmen die Bayes'sche Analyse und die regelbasierte Analyse nicht überein. In diesem Fall wird das Vertrauen in die Bayes'sche Analyse eingesetzt um festzustellen, ob der Alarm richtig oder falsch ist. Die Unterscheidung zwischen richtig oder falsch beruht auf Erfahrung und das System gewinnt im Zeitverlauf an Genauigkeit.
  • Wenn die Bayes'sche Analyse einen Alarm anzeigt, während die regelbasierte Analyse keinen Alarm anzeigt, wird der Unterschied zwischen den Werten dr und dn als Vertrauensmaßstab in den Alarm verwendet. Übersteigt dieser die minimale Vertrauensstufe, so ist ein Alarm signalisiert, obgleich die regelbasierte Analyse keinen Alarm herbeigeführt hat.
  • Wenn die regelbasierte Analyse einen Alarm anzeigt, während die Bayes'sche Untersuchung keinen Alarm anzeigt, und wenn dabei der Unterschied zwischen dn und dr größer als die minimale Vertrauensstufe ist, so wird der Alarm abgebrochen.
  • Wenn es keinen Alarm gibt, doch die Korrelation zwischen dem aktuellen und dem Referenzbild klein ist und die Funktion der Prozentsatzänderung gering ist, so wird das Referenzbild aktualisiert. Dadurch entsteht eine wirksame Anpassung an Änderungen, z. B. bei den Beleuchtungsstufen.
  • Obwohl die Bayes'sche Analyse zur Verhinderung von Fehlalarm wichtig ist, wird beabsichtigt, dass der Raucherfassungsalgorithmus unter bestimmten Umständen eine zweite Analysestufe auslassen und sich statt dessen auf die Ausgabe des Flammen-Erfassungsalgorithmus verlassen kann, um so das Vorkommen von Fehlalarm zu verringern.
  • Ein Feuer-Erfassungsalgorithmus 100 ist in 3 gezeigt. Der Algorithmus ist in allgemeinen Begriffen beschrieben und in einigen Schritten werden ein Schritt oder mehrere Schritte des Flammen-Erfassungsalgorithmus und/oder des oben beschriebenen Rauch-Erfassungsalgorithmus 20 verwendet. Die einzelnen Schritte, die im Algorithmus 100 enthalten sind, sind in 3 gezeigt. Allgemein gesprochen, analysiert der Algorithmus sich bewegende Teile in den von dem Prozessor aufgenommenen Bildern, indem er den Unterschied zwischen aufeinander folgenden Bildern oder einem aktuellen Bild und einem Referenzbild untersucht, wobei das Referenzbild die Szene unter Bedingungen ohne Feuer darstellt. Der gesamte Randbereich, die Position und die Dichte der resultierenden Muster können dann miteinander kombiniert werden, um quantitative Schätzungen bestimmter Feuereigenschaften zu erzeugen und damit eine Entscheidung „Flamme erkannt" herbeizuführen. In der ersten Ordnung ist es möglich, eine Schätzung der Wahrscheinlichkeit zu erreichen, dass die Flamme vorkommt, indem diese Schätzungen oder Parameter für jeden Einzelbildunterschied miteinander addiert werden.
  • Eine Liste von Feuereigenschaften, die in Videobildern von Feuer vorkommen und die verwendet werden können, um festzustellen, ob Feuer in einem Bild zu sehen ist, umfasst die folgenden Punkte:
    • 1. Feuer strahlt mit einer gut definierten Verteilung eines schwarzen Körpers Licht aus;
    • 2. Die Form eines Feuers verändert sich als Zeitfunktion;
    • 3. Die Form eines Feuers hat eine komplizierte „fraktale" Struktur;
    • 4. Einzelne Flammenzungen breiten sich mit großer Geschwindigkeit aus;
    • 5. Durch die Konvektion des Hitzestroms bewegt sich Feuer allgemein nach oben; und
    • 6. Rauch wird durch Feuer erzeugt.
  • Wie in 3 gezeigt, kann der Feuer-Erfassungsalgorithmus eine Farbkamera verwenden und der Algorithmus enthält einen Schritt, in dem festgestellt wird, ob das zu verarbeitende Bild von einer Farbkamera stammt. Wenn ja, kann ein Farbfilter Informationen aus den roten, grünen und blauen Kanälen beziehen, um zu sehen, ob das Bild die Spektraleigenschaften eines schwarzen Körpers hat, der zwischen 2000K und 3000K strahlt. Da CCTV-Kameras auch gegenüber nahem Infrarot (≅ 900nm) empfindlich sind, kann diese Information auch für den Vergleich mit einem geeigneten Filter gesammelt werden.
  • Ein Zeitfilter 48 wird erreicht, indem 1-P Mal ein Anfangsreferenzbild zu P Mal dem N-ten Bild addiert wird, wobei P eine reelle Zahl zwischen 0 und 1 ist. Ist P = 1, so gibt es kein Zeitfiltern. Ist P = 0,5, so ist das zeitgefilterte Bild unempfindlich gegenüber raschen Änderungen im Einzelbild. Ist P = 0, so wird nur das Referenzbild verwendet. Das Anfangsreferenzbild ist typischerweise ein Schnappschuss des Sichtbereichs 14, wenn nichts passiert. Die spätere Anwendung dieses Bildes stellt eine Referenzszene bereit, die allmähliche Änderungen wie Dämmerung einschließt, jedoch rasche Änderungen wie Feuerausbruch ignoriert. In der Praxis betrifft dies Werte von P = 10 % oder 5 %.
  • Die Regelanwendungsfunktion 50 wendet eine lineare Kombination aus statistischen Parametern an. Zur Feststellung erster Ordnung wird eine Summe aus Bereich, Rand und Zahl der sich bewegenden Partikel verwendet.
  • Die verschiedenen Aspekte der Erfindung können beinhalten:
    Einen Flammen-Erfassungsalgorithmus, der eine Folge von Videobildern verarbeitet, um Folgen von Bildern mit Flammen zu erkennen;
    Ein System, das den Flammen-Erfassungsalgorithmus anwendet, umfassend eine Videoquelle, ein Einzelbilderfassungssystem und einen Prozessor sowie Mittel zum Herbeiführen eines externen Alarms, wenn eine Flamme erkannt wird;
    Einen Algorithmus zum Filtern von Live- oder aufgenommenen Videobildern, so dass Änderungen mit einem gut definierten Frequenzband, das für eine Flammenaktivität charakteristisch ist, registriert werden;
    Einen Algorithmus, der in einer Folge von Bildern Änderungen in die Bereiche flackerähnliches Verhalten und nicht-flackerähnliches Verhalten einordnet;
    Einen Algorithmus mit Filtern, die in einer Folge von Bildern ein binäres Bild der Bereiche mit flammenähnlichem Verhalten hervorbringen;
    Einen Algorithmus zum Berechnen der Parameter der Spärlichkeit und des Verhältnisses Kante-zu-Volumen in einem solchen binären Bild;
    Einen weiteren Algorithmus, der auf Basis der durch einen solchen Algorithmus ermittelten Werte bestimmt, ob ein Alarm erzeugt werden soll oder nicht;
    Einen optimalen Satz an Parametern für solche Algorithmen; und
    Einen Algorithmus, der nacheinander einen oder mehrere der oben genannten Algorithmen verwendet, um Parameter zu erzeugen, die für die Entscheidung, ob eine Flamme in einem Bild auftaucht, verwendet werden können und die zwischen sich im Wind bewegenden Bäumen und Flammen unterscheiden können.
  • Einige der Anmelder haben bereits Patentanmeldungen betreffend Feuererkennung eingereicht. Diese Anmeldungen sind die folgenden:
    Es wurde herausgefunden, dass der Rauch-Erfassungsalgorithmus für sich allein oder in Kombination mit dem Flammen-Erfassungsalgorithmus in einem Gas-Erfassungssystem verwendet werden kann. Zum Beispiel könnte durch geeignete Modifikation des Algorithmus/der Algorithmen Dampf erkannt werden. Dampf könnte anfangs ähnlich erkannt werden wie das Vorhandensein von Rauch. Jedoch tendiert Dampf zur Verdunstung und sollte in nachfolgenden Erfassungsfolgen nicht mehr erkannt werden. Somit könnte eine relativ kurze Dauer des Zeichens „Rauch erkannt" anzeigen, dass kein Rauch, sondern vielmehr Dampf erkannt wurde. Ein Fehlen des Zeichens „Flamme erkannt" in Kombination mit dem Zeichen „Rauch erkannt" könnte ebenfalls anzeigen, dass es sich um eine Erfassung von Gas anstelle von Rauch/Feuer handelt.
  • Der Inhalt dieser Anmeldungen ist hier durch Bezugnahme aufgenommen und die Anmelderin behält sich das Recht vor, Material aus einer oder mehrerer jener Anmeldungen in die vorliegende Anmeldung zu kopieren und eines oder mehrere Merkmale oder Kombinationsmerkmale aus jenen Anmeldungen, entweder allein oder in Kombination mit einem oder mehreren Merkmalen dieser Anmeldung, zu beanspruchen.

Claims (5)

  1. Ein kombiniertes Rauch- und Flammenerkennungssystem (10), umfassend mindestens eine Videokamera, einen Videoeinzelbild-Komparator (14, 40) und einen Prozessor, wobei der Prozessor (18, 40) so eingerichtet ist, dass er die von der einen oder von jeder Kamera erfassten aufeinander folgenden Einzelbilder analysiert, indem er einzelne Pixel der Einzelbilder gemäß mindestens zwei vordefinierten Beziehungen (20, 22) miteinander vergleicht, um auf diese Weise in der Lage zu sein, Rauch und Flammen zu erkennen und ein Ausgabesignal zu erzeugen, welches das Vorhandensein von Rauch, Flammen oder Rauch und Flammen anzeigt; dadurch gekennzeichnet, dass der Prozessor Mittel zum Filtern der durch das System produzierten digitalisierten Bilder mithilfe eines ersten vordefinierten Algorithmus (20) einschließt, so dass ausschließlich Änderungen in den Pixelmerkmalen, die innerhalb eines vorbestimmten Frequenzbands auftreten, dazu verwendet werden, eine „Flamme vorhanden"-Entscheidung zu treffen; und wobei gleichzeitig ein zweiter vordefinierter Algorithmus (22) verwendet wird, so dass Pixelmerkmale beurteilt werden, um unabhängig von der „Flamme vorhanden"-Entscheidung eine „Rauch vorhanden"-Entscheidung zu treffen, sowie Mittel zum Analysieren der durch den ersten und den zweiten vordefinierten Algorithmus getroffenen Entscheidungen, um zu beurteilen, ob ein Feuer vorliegt.
  2. Ein Verfahren zum Erkennen von Rauch und Flammen, wobei das Verfahren die folgenden Schritte umfasst: Empfangen digitalisierter Bilder einer zu überwachenden Region; Vergleichen der Pixel von einem der Bilder mit Pixeln eines anderen Bilds entsprechend zwei vorbestimmten Prozeduren, um „Flamme vorhanden"- und „Rauch vorhanden"-Entscheidungen zu treffen; und Bereitstellen eines „Feuer erkannt"-Signals entsprechend den „Rauch vorhanden"- und „Flamme vorhanden"-Entscheidungen; gekennzeichnet durch den Schrift des Filterns der durch das System produzierten digitalisierten Bilder mithilfe einer vordefinierten Beziehung (20), so dass ausschließlich Änderungen in den Pixelmerkmalen, die innerhalb eines vorbestimmten Frequenzbands auftreten, verwendet werden, um eine „Flamme vorhanden"-Entscheidung zu treffen; und wobei gleichzeitig eine zweite vordefinierte Beziehung (22) verwendet wird, so dass Pixelmerkmale beurteilt werden, um zusätzlich zur oder anstelle der „Flamme vorhanden"-Entscheidung eine „Rauch vorhanden"-Entscheidung zu treffen.
  3. Ein System gemäß Anspruch 1 oder ein Verfahren gemäß Anspruch 2, dadurch gekennzeichnet, dass der Schritt des Filterns das Ausfiltern von Änderungen in den Pixelmerkmalen einschließt, die im Frequenzband 1,25 Hz bis 4 Hz auftreten.
  4. Die Erfindung gemäß Anspruch 1, Anspruch 2 oder Anspruch 3, dadurch gekennzeichnet, dass die eine Prozedur den Schritt des Ermittelns der Dichte der Änderung von Pixeleigenschaften einschließt sowie das Ermitteln des Vorhandenseins einer Flamme, wenn eine Dichte ermittelt wird, die einen vorbestimmten Dichtewert überschreitet.
  5. Die Erfindung gemäß jedem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das System des Weiteren Gewichtungsmittel zum Erzeugen des Signals gemäß einer gewichteten Analyse der „Flamme vorhanden"-Entscheidung und/oder der „Rauch vorhanden"-Entscheidung umfasst.
DE60123214T 2000-02-07 2001-02-07 Rauch- und flammendetektion Expired - Fee Related DE60123214T2 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GB0002695A GB0002695D0 (en) 2000-02-07 2000-02-07 Video fire detection
GB0002695 2000-02-07
GB0010857A GB0010857D0 (en) 2000-05-05 2000-05-05 Smoke & flame video detection system
GB0010857 2000-05-05
WOPCT/GB00/03717 2000-09-27
PCT/GB2000/003717 WO2001024131A2 (en) 1999-09-27 2000-09-27 Fire detection algorithm
PCT/GB2001/000482 WO2001057819A2 (en) 2000-02-07 2001-02-07 Smoke and flame detection

Publications (2)

Publication Number Publication Date
DE60123214D1 DE60123214D1 (de) 2006-11-02
DE60123214T2 true DE60123214T2 (de) 2007-09-20

Family

ID=27255514

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60123214T Expired - Fee Related DE60123214T2 (de) 2000-02-07 2001-02-07 Rauch- und flammendetektion

Country Status (3)

Country Link
EP (1) EP1256105B1 (de)
DE (1) DE60123214T2 (de)
WO (1) WO2001057819A2 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7245315B2 (en) 2002-05-20 2007-07-17 Simmonds Precision Products, Inc. Distinguishing between fire and non-fire conditions using cameras
US7280696B2 (en) 2002-05-20 2007-10-09 Simmonds Precision Products, Inc. Video detection/verification system
US7256818B2 (en) 2002-05-20 2007-08-14 Simmonds Precision Products, Inc. Detecting fire using cameras
DE50306852D1 (de) * 2003-07-11 2007-05-03 Siemens Schweiz Ag Verfahren und Einrichtung zur Detektion von Flammen
US8326037B1 (en) 2005-11-23 2012-12-04 Matrox Electronic Systems, Ltd. Methods and apparatus for locating an object in an image
DE102008039132A1 (de) 2008-08-21 2010-02-25 Billy Hou Intelligenter Bild-Rauch/Flammensensor und Detektionssystem
CN102609727B (zh) * 2012-03-06 2014-02-26 中国人民解放军理工大学工程兵工程学院 基于无量纲特征提取的火灾火焰检测方法
CN102819735B (zh) * 2012-08-17 2015-07-15 深圳辉锐天眼科技有限公司 基于视频帧图像的火焰检测方法
DE102016207705A1 (de) * 2016-05-04 2017-11-09 Robert Bosch Gmbh Rauchdetektionsvorrichtung, Verfahren zur Detektion von Rauch eines Brandes sowie Computerprogramm
KR102311356B1 (ko) * 2017-03-20 2021-10-12 오와이 할튼 그룹 엘티디. 화재안전장치 방법 및 시스템
CN110363725B (zh) * 2019-07-24 2022-09-13 安徽工业大学 一种碳氢燃料同轴扩散火焰碳烟微纳结构的分析方法
CN111368756A (zh) * 2020-03-09 2020-07-03 上海金掌网络技术有限责任公司 一种基于可见光的明火烟雾快速识别方法和系统
CN111489342B (zh) * 2020-04-09 2023-09-26 西安星舟天启智能装备有限责任公司 一种基于视频的火焰检测方法、系统及可读存储介质
CN115439997B (zh) * 2022-11-07 2023-01-31 北京中海兴达建设有限公司 一种火灾预警方法、装置、设备及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4691196A (en) * 1984-03-23 1987-09-01 Santa Barbara Research Center Dual spectrum frequency responding fire sensor
GB9216811D0 (en) * 1992-08-07 1992-09-23 Graviner Ltd Kidde Flame detection methods and apparatus
JPH10269471A (ja) * 1997-03-27 1998-10-09 Nohmi Bosai Ltd 火災検出装置

Also Published As

Publication number Publication date
EP1256105A2 (de) 2002-11-13
WO2001057819A8 (en) 2002-10-24
WO2001057819A2 (en) 2001-08-09
DE60123214D1 (de) 2006-11-02
EP1256105B1 (de) 2006-09-20
WO2001057819A3 (en) 2002-07-18

Similar Documents

Publication Publication Date Title
DE69903190T2 (de) Rauchmeldung
DE69622476T2 (de) Verfahren und Gerät zur Objekterkennung innerhalb des Gesichtfeldes eines Abbildungsgerätes
DE102013017395B3 (de) Verfahren und Vorrichtung zur automatisierten Waldbrandfrüherkennung mittels optischer Detektion von Rauchwolken
DE60123214T2 (de) Rauch- und flammendetektion
DE60105006T2 (de) Verfahren und system zur brandfrüherkennung
DE69510252T2 (de) Verfahren und Vorrichtung zur Gewinnung eines sich bewegenden Objektes, mit Anwendung von Hintergrundsubstraktion
DE69815977T2 (de) Gegen globale veränderungen unempfindlicher videobewegungsdetektor
EP0984413B1 (de) Verfahren und Vorrichtung zur automatischen Waldbranderkennung
DE60132622T2 (de) Verfahren und vorrichtung zur auswahl des besten videoeinzelbildes zur übermittlung an einen entfernten standort innerhalb eines geschlossenen fernsehsystems zur wohnbereichssicherheitsüberwachung
US7002478B2 (en) Smoke and flame detection
EP1281166A1 (de) Bildgebender brandmelder
EP1346330B1 (de) Video-rauchdetektionssystem
EP1496483B1 (de) Verfahren und Einrichtung zur Detektion von Flammen
EP3453000B1 (de) Rauchdetektionsvorrichtung, verfahren zur detektion von rauch eines brandes sowie computerprogramm
DE102010011225B3 (de) Personendurchgangskontrolle mit Kamerasystem
DE112007000738B4 (de) Filter für Störbewegungen
WO2019048604A1 (de) Automatische früherkennung von rauch, russ und feuer mit erhöhter erkennungssicherheit durch maschinelles lernen
DE102016222134A1 (de) Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes
EP1762995A1 (de) Detektion von Rauch mit einer Videokamera
DE102014224557A1 (de) Bildverarbeitung mittels Kreuzkorrelation
DE19641000A1 (de) Verfahren und Anordnung zur automatischen Erkennung der Anzahl von Personen in einer Personenschleuse
DE102009043080B4 (de) Verfahren zur Detektion von Rauch und/oder Flammen und Detektionssystem
DE102006027120A1 (de) Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm
AT503008B1 (de) Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system
DE102009055623B4 (de) Verfahren und Einrichtung zur optischen Aktivitätenerkennung

Legal Events

Date Code Title Description
8328 Change in the person/name/address of the agent

Representative=s name: MANITZ, FINSTERWALD & PARTNER GBR, 80336 MUENCHEN

8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee