DE112013005981T5 - Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten - Google Patents

Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten Download PDF

Info

Publication number
DE112013005981T5
DE112013005981T5 DE112013005981.9T DE112013005981T DE112013005981T5 DE 112013005981 T5 DE112013005981 T5 DE 112013005981T5 DE 112013005981 T DE112013005981 T DE 112013005981T DE 112013005981 T5 DE112013005981 T5 DE 112013005981T5
Authority
DE
Germany
Prior art keywords
video
event
camera
keywords
specific dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112013005981.9T
Other languages
English (en)
Inventor
Philip E. May
Steven D. Tine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=49759586&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE112013005981(T5) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE112013005981T5 publication Critical patent/DE112013005981T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)
  • Alarm Systems (AREA)

Abstract

Ein Videotaggingverfahren, ein Videoanalyseverfahren und ein rechnergestütztes Einsatzleitsystem (CAD-System) verwenden Ereignisberichte, um Video mit Tags zu versehen und zu durchsuchen. Ein CAD-System ist mit Videoüberwachungssystemen im Außeneinsatz integriert, um das Durchsuchen von Videoinhalt und das anschließende Tagging des Videoinhalts zu erleichtern. Die Systeme und Verfahren können das Extrahieren von Schlüsselwörtern aus einem CAD-Ereignisbericht umfassen sowie das Erzeugen eines kleinen, zweckgerichteten und ereignisspezifischen Wörterbuchs, auf dessen Grundlage Videosuchen in Echtzeit durchgeführt werden sollen. Das kleine, zweckgerichtete und ereignisspezifischen Wörterbuch erhöht die Tagginggenauigkeit und verringert die Tagging-Verarbeitungszeit im Kontext der Videoanalysen. Ferner aktualisiert eine Vorgehensweise mit mehreren Durchlaufen in Echtzeit das kleine, zweckgerichtete und ereignisspezifische Wörterbuch und verteilt es an interessierende Videokameras, während der CAD-Ereignisbericht aktualisiert wird und während sich das interessierende Ereignis abspielt.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft allgemein das Taggen und die Analyse von Video und insbesondere Systeme und Verfahren zum Verwenden von Ereignisberichten einer rechnergestützten Einsatzleitung (Computer-aided dispatch, CAD, oder Computer-assisted-Dispatch) für Videotagging, Suchen, Analysen, usw.
  • Hintergrund
  • Videoüberwachungssysteme und -verfahren werden in unterschiedlichen geografischen Bereichen eingesetzt und vernetzt. Zum Beispiel kann ein mobiler digitaler Videorekorder (MDVR) im Kontext der öffentlichen Sicherheit (zum Beispiel Polizei, Feuerwehr, Arzt usw.) auf einem Fahrzeugdach, an Bediensteten der öffentlichen Sicherheit oder ähnlichem angeordnet sein, zum Beispiel an einer Stange befestigt, usw. Wie man mit der zunehmenden Verbreitung von Videoüberwachungssystemen und -verfahren erwarten kann, werden bedeutende Mengen an Video aufgezeichnet und aufgenommen, was es zunehmend wichtig macht, aufgezeichnetes Video zu indizieren, um es nach Merkmalen durchsuchbar zu machen. Des Weiteren wäre es hilfreich, das Video vor einem Hochladevorgang und/oder Speichern/Archivieren vorzufiltern. In einem MDVR, der in einer Funktion der öffentlichen Sicherheit verwendet wird, gibt es häufig einen Ereignisbericht, der für Zeitspannen, während derer Video aufgenommen wird, wirksam ist. Systeme und Verfahren der rechnergestützten Einsatzleitung (CAD) können verwendet werden, um die Ereignisberichte zu erzeugen. Typischerweise gibt eine Einsatzleitung relevante Rufeinzelheiten an Mitarbeiter im Außeneinsatz bekannt, die entsprechend aktiv werden. Herkömmlicherweise gibt es keine Echtzeitintegration von CAD-Ereignisberichten und im Außeneinsatz aufgenommenem Video.
  • Videoanalyse bezeichnet allgemein das Verarbeiten und Durchsuchen von Video, um darin etwas in einem oder mehreren Frames des aufgenommenen Videos Enthaltene zu detektieren. Herkömmlicherweise ist Videoanalyse schwierig wegen all der möglichen Permutationen von Objekten, Personen usw., die sich in jedem Videoframe befinden könnten. Insbesondere können alle Objekte, die sich in Videoframes im Kontext einer Videoanalyse befinden können, in einem sogenannten Wörterbuch enthalten sein. Jedoch ist die Verarbeitung komplex und zeitaufwändig, da herkömmliche Wörterbücher extrem umfangreich sind.
  • Dementsprechend besteht wegen der enormen Verbreitung von im Außeneinsatz aufgenommenem Video ein Bedarf nach Systemen und Verfahren zum Taggen und Durchsuchen von Video, um das Abrufen, Speichern und/oder Analysieren zu unterstützen.
  • Kurze Beschreibung der Zeichnungen
  • Die begleitenden Zeichnungen, in denen gleiche Bezugszeichen durch die einzelnen Ansichten hinweg identische oder funktionell ähnliche Elemente bezeichnen, sind zusammen mit der unten stehenden ausführlichen Beschreibung Teil der Beschreibung und dienen dazu, Ausführungsformen von Konzepten, die die beanspruchte Erfindung einschließen, weiter zu illustrieren und verschiedene Prinzipien und Vorteile jener Ausführungsformen zu erläutern.
  • 1 ist ein Netzdiagramm eine Videotaggingsystems in Übereinstimmung mit einigen Ausführungsformen.
  • 2 ist ein Flussdiagramm eines Videotaggingverfahrens beruhend auf einem Ereignisbericht und einem zugehörigen ereignisspezifischen Wörterbuch in Übereinstimmung mit einigen Ausführungsformen.
  • 3 ist ein Flussdiagramm eines Videotaggingverfahrens zum Aufnehmen von Video unter Verwendung des ereignisspezifischen Wörterbuchs in Übereinstimmung mit einigen Ausführungsformen.
  • 4 ist ein Flussdiagramm eines Videoanalyseverfahrens, welches Video auf der Grundlage eines Ereignisberichts und eines zugehörigen ereignisspezifischen Wörterbuchs in Übereinstimmung mit einigen Ausführungsformen mit Tags versieht.
  • 5 ist ein Flussdiagramm eines Videoanalyseverfahrens zum Speichern und Durchsuchen von Video auf der Grundlage des Ereignisberichts und des zugehörigen ereignisspezifischen Wörterbuchs in Übereinstimmung mit einigen Ausführungsformen.
  • 6 ist ein Blockdiagramm, welches eine exemplarische Ausführung eines Servers für das CAD-System in Übereinstimmung mit einigen Ausführungsformen veranschaulicht.
  • 7 ist ein Blockdiagramm einer exemplarischen Ausführung einer Kamera, die eine Komponente in dem Videoaufnahmesystem in Übereinstimmung mit einigen Ausführungsformen ist.
  • Der Fachmann wird erkennen, dass Elemente in den Zeichnungen mit dem Ziel der Einfachheit und Klarheit dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Abmessungen mancher Elemente in den Zeichnungen im Vergleich zu anderen Elementen übertrieben sein, um ein besseres Verständnis von Ausführungsformen der Erfindung zu erleichtern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es zweckdienlich war, durch konventionelle Zeichen in den Zeichnungen dargestellt, wobei nur jene spezifischen Details gezeigt werden, die zum Verstehen der Ausführungsformen der Erfindung wichtig sind, um die Offenbarung nicht durch Einzelheiten zu verschleiern, die dem Fachmann, der die vorliegende Beschreibung nutzt, ohne weiteres klar sind.
  • Ausführliche Beschreibung
  • In verschiedenen exemplarischen Ausführungsformen werden Systeme und Verfahren beschrieben, die Computer-assisted-Dispatch-Ereignisberichte oder ähnliches zum Taggen, Durchsuchen, Analysieren, usw. von Video verwenden. In einer exemplarischen Ausführungsform integrieren die Systeme und Verfahren CAD mit Videoüberwachungssystemen, um beim Durchsuchen von Videoinhalt und anschließendem Tagging des Videoinhalts zum Zwecke einer Videoanalyse zu helfen. Zum Beispiel können die Systeme und Verfahren das Extrahieren von Schlüsselwörtern aus einem CAD-Ereignisbericht und das Erzeugen eines kleinen, zweckgerichteten und ereignisspezifischen Wörterbuchs umfassen, auf dessen Grundlage in Echtzeit oder später eine Videosuche durchgeführt werden soll. Vorteilhafterweise erhöht das kleine, zweckgerichtete und ereignisspezifische Wörterbuch die Genauigkeit des Taggings und verringert die Taggingverarbeitungszeit in Bezug auf Videoanalysen. Des Weiteren können die Systeme und Verfahren eine Vorgehensweise mit mehreren Durchläufen in Echtzeit umfassen, die kontinuierlich das kleine, zweckgerichtete und ereignisspezifische Wörterbuch aktualisiert, während der CAD-Ereignisbericht aktualisiert wird und während sich das interessierende Ereignis entwickelt. Dies kann zur Verarbeitung von aufgenommenem Video in Echtzeit, naher Echtzeit oder später verwendet werden. Die CAD-Systemkamera kann kommunikativ mit einem Videoüberwachungssystem gekoppelt sein, um das kleine, zweckgerichtete und ereignisspezifische Wörterbuch auf der Grundlage einer individuellen Relevanz der Kamera für das interessierende Ereignis zu verbreiten.
  • Wie im Vorliegenden beschrieben wird, bezeichnet Tagging allgemein das Verknüpfen von Schlüsselwörtern wie zum Beispiel in einem ereignisspezifischen Wörterbuch oder ähnlichem mit Videometadaten. Mit diesem Tagging kann das Durchsuchen ein algorithmisches Durchsuchen von aufgenommenem Video unter Verwendung des ereignisspezifischen Wörterbuchs einschließen, wie zum Beispiel das Finden von allem in dem aufgenommenen Video, was mit dem ereignisspezifischen Wörterbuch zusammenhängt oder das Durchsuchen des aufgenommenen Videos auf der Grundlage von Suchbegriffen. In einem exemplarischen Aspekt verbessern die Systeme und Verfahren Videoanalysen enorm, indem sie das zugehörige Wörterbuch beträchtlich verkleinern, das heißt das ereignisspezifische Wörterbuch, auf der Grundlage von Begriffen, die einem Ereignisbericht entnommen sind, das heißt einem CAD-Ereignisbericht oder ähnlichem. Mit einem reduzierten Wörterbuch, welches für ein Ereignis relevant ist, können Videoanalysen ein mächtiges Werkzeug sein.
  • In einer exemplarischen Ausführungsform umfasst ein Videotaggingverfahren, das auf einem Ereignisbericht und einem zugehörigen ereignisspezifischen Wörterbuch beruht, das Erfassen von Schlüsselwörtern aus dem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne; das Erzeugen eines ereignisspezifischen Wörterbuchs für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter; das Bereitstellen des ereignisspezifischen Wörterbuchs aus der ersten Zeitspanne für wenigstens eine Videokamera, die Video aufnimmt auf der Grundlage mehrerer Faktoren, oder für einen Backendserver, der kommunikativ mit der wenigstens einen Videokamera gekoppelt ist; und das Verwenden der Schlüsselwörter aus dem Ereignisbericht durch die wenigstens eine Videokamera, um aufgenommenes Video mit Tags zu versehen.
  • In einer weiteren exemplarischen Ausführungsform umfasst ein Videoanalyseverfahren das Entwickeln eines ereignisspezifischen Wörterbuchs auf der Grundlage eines Ereignisberichts betreffend ein interessierendes Ereignis, wobei das ereignisspezifische Wörterbuch eine auf dem Ereignisbericht beruhende zweckgerichtete Liste von Objekten und Personen enthält; Empfangen des ereignisspezifischen Wörterbuchs an einer ersten Kamera auf der Grundlage geografischer Nähe zu dem interessierenden Ereignis; Erfassen von Video durch die erste Kamera; Versehen des erfassten Video mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch durch die erste Kamera; und Analysieren des erfassten Video unter Verwendung der Schlüsselwörter in dem ereignisspezifischen Wörterbuch, um Videoanalysen auf der Grundlage der zweckgerichteten Liste durchzuführen.
  • In einer weiteren exemplarischen Ausführungsform umfasst ein Computer-assisted-Dispatch-System eine Netzschnittstelle, die kommunikativ mit einem Netzwerk gekoppelt ist; einen Prozessor, der kommunikativ mit der Netzschnittstelle gekoppelt ist; Speicher, der Befehle enthält, die, wenn sie ausgeführt werden, bewirken, dass der Prozessor: Schlüsselwörter aus einem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne erfasst; ein ereignisspezifisches Wörterbuch für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter erzeugt; über die Netzschnittstelle das ereignisspezifische Wörterbuch aus der ersten Zeitspanne wenigstens einer Videokamera zur Verfügung stellt, die Video auf der Grundlage mehrerer Faktoren aufnimmt; aktualisierte Schlüsselwörter erfasst, während sich das interessierende Ereignis in einer zweiten Zeitspanne entwickelt; das ereignisspezifische Wörterbuch mit den aktualisierten Schlüsselwörtern aktualisiert; und das aktualisierte ereignisspezifische Wörterbuch einer anderen Videokamera oder einem kommunikativ mit der anderen Videokamera gekoppelten Backendserver auf der Grundlage der mehreren Faktoren zur Verfügung stellt.
  • Bezugnehmend auf 1 veranschaulicht ein Netzdiagramm ein Videotaggingsystem 10 in einer exemplarischen Ausführungsform. Spezifisch umfasst das Videotaggingsystem 10 ein CAD-System 12, ein Videoaufnahmesystem 14, ein Netzwerk 16 und ein drahtloses Netzwerk 18. Das CAD-System 12 ist kommunikativ mit dem Videoaufnahmesystem 14 über das Netzwerk 16, das drahtlose Netzwerk 18 und/oder über hier nicht dargestellte andere Komponenten oder Netzwerke gekoppelt. Das CAD-System 12 ist so konfiguriert, dass es CAD-Ereignisberichte erzeugt. Wie im Vorliegenden beschrieben ist, können die CAD-Ereignisberichte Nachrichten mit Informationen enthalten wie zum Beispiel Orte, interessierende Personen, verallgemeinerte Subjektbeschreibung, Ereignisübersicht, Einsatzkräfte oder jegliche andere relevante Informationen, die das Ereignis betreffen. Die CAD-Ereignisberichte können auch aktualisiert werden, während sich zugehörige Ereignisse entwickeln. Spezifisch kann das CAD-System 12 Aussendeeinrichtungen (Dispatchers), das heißt CAD-Operatoren oder Einsatzleitungen, enthalten, die kommunikativ mit Servern 20 gekoppelt sind, die sich schließlich über die Netzwerke 16, 18 mit dem Videoaufnahmesystem 14 verbinden.
  • Das Videoaufnahmesystem 14 umfasst mehrere Kameras und zugehörige Verarbeitungskomponenten zum Aufnehmen von Echtzeitvideo innerhalb eines geografischen Bereichs. Die Kameras können mobile digitale Videorekorder umfassen. Auch können die Kameras auf ersten Einsatzkräften oder auf Fahrzeugen von ersten Einsatzkräften angeordnet sein. Ferner können die Kameras Überwachungskameras sein, die innerhalb des geografischen Bereichs angeordnet sind, wie zum Beispiel auf Straßenleuchten, auf Schilderpfählen auf und/oder in Gebäuden usw. Jede Kamera ist so konfiguriert, dass sie Video und optional Audio aufnimmt und die Verarbeitungskomponenten sind so konfiguriert, dass sie das Video wie im Vorliegenden beschrieben wird, verarbeiten. Spezifisch können die Verarbeitungskomponenten einschließen, dass Video mit Schlüsselwörtern aus einem ereignisspezifischen Wörterbuch aus dem CAD-System 12 versehen wird, wodurch die Schlüsselwörter mit aufgenommenen Videometadaten verknüpft werden. Ferner können die Verarbeitungskomponenten so konfiguriert werden, dass sie aufgenommenes Echtzeit- oder Nahe-Echtzeit-Video und/oder -audio durchsuchen und dabei nach Einträgen in dem ereignisspezifischen Wörterbuch suchen sowie Bedienstete benachrichtigen, sobald etwas gefunden wird.
  • Das CAD-System 12 kann eine Folge von Softwarepaketen umfassen, die dazu verwendet werden, um Rufe der öffentlichen Sicherheit nach Dienst, Aussendung einzuleiten und den Status der Außeneinsatzkräfte aufrechtzuerhalten. Das CAD-System 12 kann allgemein von Notrufsendestellen, Rufnehmern und 911-Betreibern in zentralisierten Rufzentren der öffentlichen Sicherheit verwendet werden sowie von Bediensteten im Außeneinsatz, die mobile Datenendgeräte (Mobile Data Terminals, MDTs) oder mobile Datencomputer (MDCs) verwenden. Das CAD-System 12 kann mehrere funktionelle Softwaremodule umfassen, die auf Servern 20 ausgeführt werden, die Dienste auf verschiedenen Ebenen in einer Leitstelle und auf dem Gebiet der öffentlichen Sicherheit zur Verfügung stellen. Diese funktionellen Module können die Rufeingabe, den Rufversand, die Rufstatusaufrechterhaltung, Ereignisnotizen, den Status und die Verfolgung von Einheiten im Außeneinsatz, sowie die Rufauflösung und -disponierung umfassen. Das CAD-System 12 kann auch Schnittstellen umfassen, die es der Software erlauben, Leitstellen, Rufnehmern und Bediensteten im Außeneinsatz Dienste zur Verfügung zu stellen bezüglich der Steuerung und Verwendung von analoger Funk- und Fernsprechausrüstung sowie Logger-Rekorder-Funktionen.
  • Die eintreffenden CAD-Berichte werden von den Servern 20 an ausgesandte Personen im Außeneinsatz gesendet. Die ausgesandten Personen können zum Beispiel Bedienstete der öffentlichen Sicherheit oder ähnliche umfassen. Die Ausgesandten können eine mobile Vorrichtung haben, die verwendet wird, um die eintreffenden CAD-Berichte anzuzeigen und/oder abzuspielen. Die mobile Vorrichtung kann auch für mehrere zusätzliche Zwecke verwendet werden, zum Beispiel Daten speichern und lesen, in den Netzwerken 16, 18 kommunizieren usw. Die mobilen Vorrichtungen können MDTs, MDCs, Smartphones, Tablets, Zwei-Wege-Funkgeräte usw. umfassen. Die eintreffenden CAD-Berichte können von der Leitstelle und/oder den ausgesandten Personen aktualisiert werden, während sich das zugehörige Ereignis entwickelt.
  • Ein exemplarischer eintreffender CAD-Bericht kann zum Beispiel wie folgt sein:
    ORT: 1234 Main Street
    BERICHTENDE PERSON: John Doe, 555–5555, 4567 Main St.
    ZEITSTEMPEL: 4:01:03 EDT, 8/24
    EREIGNIS: Bewaffneter Raub (stattfindend)
    ZUSAMMENFASSUNG: „Anrufer berichtet Quick-Mart-Laden wird bedroht/Anrufer
    sagt, dass Verdächtiger in einer weißen zweitürigen Limousine Richtung Westen flüchtet.”
  • Der oben stehende eintreffende CAD-Bericht kann über die Server 20 an mehrere Personen im Außeneinsatz, zum Beispiel Polizisten, gesendet werden. Anschließend können Polizisten dem CAD-Ereignisbericht wie folgt als Tag hinzugefügt werden oder in ihm aufgenommen werden:
    ORT: 1234 Main Street
    BERICHTENDE PERSON: John Doe, 555–5555, 4567 Main Street
    ZEITSTEMPEL: 4:02:33 EDT, 8/24
    EREIGNIS: Bewaffneter Raub (stattfindend)
    ZUSAMMENFASSUNG: „Anrufer berichtet Quick-Mart-Laden wird bedroht/Anrufer
    sagt, dass Verdächtiger in einer weißen zweitürigen Limousine Richtung Westen flüchtet.”
    EINHEITEN:” 746 (vor Ort), 749 (auf dem Weg)
  • In dem Text oben umfasst der CAD-Ereignisbericht Einheiten, nämlich die Einheiten 746, 749, die als reagierende Einheiten/Einsatzkräfte gekennzeichnet sind. Diese Einheiten könnten zusätzliche Details hinzufügen, während sich das Ereignis entwickelt, wie zum Beispiel:
    ORT: 1234 Main Street
    BERICHTENDE PERSON: John Doe, 555–5555, 4567 Main Street
    ZEITSTEMPEL: 4:04:23 EDT, 8/24
    EREIGNIS: Bewaffneter Raub (stattfindend)
    ZUSAMMENFASSUNG: „Anrufer berichtet Quick-Mart-Laden wird bedroht/Anrufer
    sagt, dass Verdächtiger in einer weißen zweitürigen Limousine Richtung Westen flüchtet. Einheit 746 verfolgt die weiße zweitürige Limousine, der Kurs nach Norden nimmt auf den South Boulevard/verdächtiger Fahrer trägt eine rote Jacke und eine Brille.”
    EINHEITEN: 746 (Verfolgung), 749 (auf dem Weg)
  • Wie man in dem oben erwähnten sich entwickelnden CAD-Ereignisbericht sehen kann, sind da geografische Daten (zum Beispiel 1234 Main Street, Richtung Westen flüchtend, Kurs nach Norden auf South Boulevard), Zeitstempel-Informationen und bedeutsame Schlüsselwörter (zum Beispiel weiße zweitürige Limousine, rote Jacke, Brille usw.).
  • In verschiedenen exemplarischen Ausführungsformen ist das CAD-System 12 so konfiguriert, dass es Schlüsselwörter aus dem CAD-Ereignisbericht extrahiert und damit ein kleines zweckgerichtetes ereignisspezifisches Wörterbuch erzeugt, auf dessen Grundlage eine Videosuche durchgeführt werden soll, und dass es Aufnahmevideo mit Tags versieht. Zum Beispiel kann in dem oben erwähnten sich entwickelnden CAD-Ereignisbericht das ereignisspezifische Wörterbuch weiße zweitürige Limousine, rote Jacke, Brille sowie verschiedene geografische Beschreibungen, nämlich 1234 Main Street, nach Westen flüchtend, Kurs Norden auf South Boulevard, enthalten. Man bemerke, dass zu erwarten ist, dass das ereignisspezifische Wörterbuch für jedes Ereignis anders sein wird. Ein reduziertes ereignisspezifisches Wörterbuch erhöht die Tagginggenauigkeit und verringert die Taggingverarbeitungszeit. Darüber hinaus macht das reduzierte ereignisspezifische Wörterbuch Videoanalysen stromlinienförmig und optimiert sie. Des Weiteren entwickelt sich das ereignisspezifische Wörterbuch kontinuierlich fort, während sich das interessierende Ereignis abspielt, das heißt, eine Vorgehensweise mit mehreren Durchgängen, während der CAD-Ereignisbericht aktualisiert wird.
  • Des Weiteren wird das ereignisspezifische Wörterbuch an verschiedene Komponenten in dem Videoaufnahmesystem 14 auf der Grundlage der Relevanz der Komponenten für das Ereignis verteilt. Zum Beispiel könnte das Wörterbuch einer Kamera zur Verfügung gestellt werden, die mit den reagierenden Bediensteten oder mit in der Nähe befindlichen Bediensteten verknüpft ist, und allen Kameras, die sich in der geografischen Umgebung befinden, zum Beispiel Straßenleuchtenkameras, Überwachungskameras usw. Zusätzlich könnte das Wörterbuch Kameras und ähnlichen in dem Videoaufnahmesystem 14 auf der Grundlage anderer Metriken zur Verfügung gestellt werden, wie zum Beispiel Kameras, die von dem interessierenden Ereignis weiter entfernt sind, sich aber entlang wahrscheinlicher Strecken für den flüchtenden Verdächtigen befinden, alle Kameras in einem bestimmten geografischen Gebiet, usw. Zum Beispiel könnte das Wörterbuch verschiedenen Kameras in einem geografischen Gebiet mit einem ständig zunehmenden Radius in Abhängigkeit von der Zeit, wahrscheinlicher Geschwindigkeit eines Verdächtigen oder Fahrzeugs, usw. zur Verfügung gestellt werden. Das Videotaggingsystem 10 kann Algorithmen verwenden, um sicherzustellen, dass das Wörterbuch jedem für das Ereignis relevanten Videoaufnahmesystem 14 zur Verfügung gestellt wird.
  • Nimmt man den oben erwähnten sich entwickelnden CAD-Ereignisbericht als Beispiel, so wurde das Wörterbuch in einem ersten Punkt, Zeitstempel 4:01:03 EDT, 8/24, Quick-Mart-Laden, weiße zweitürige Limousine, usw. enthalten und dieses Wörterbuch würde Kameras in der näheren Umgebung des Ortes, 1234 Main Street, zur Verfügung gestellt werden. In einem zweiten Punkt, Zeitstempel 4:02:33 EDT, 8/24, bleibt das Wörterbuch unverändert, aber möglicherweise empfangen zusätzliche Kameras das aktualisierte Wörterbuch, nämlich Kameras, die mit den Einheiten 746 und 749 verknüpft sind. In einem dritten Punkt, Zeitstempel 4:04:23 EDT, 8/24, kann das Wörterbuch aktualisiert werden, so dass es von da an „verdächtiger Fahrer trägt eine rote Jacke und eine Brille” usw. enthält, und das Wörterbuch kann weiter zusätzlichen Kameras zur Verfügung gestellt werden, zum Beispiel Kameras in einer nördlichen Richtung auf dem South Boulevard. Somit enthält das Videotaggingsystem 10 ein sich entwickelndes, dynamisch aktualisiertes ereignisspezifisches Wörterbuch, welches von dem CAD-System 12 verwaltet wird und im Laufe der Zeit geografisch relevanten Kameras in dem Videoaufnahmesystem 14 zur Verfügung gestellt wird. Des Weiteren kann das dynamisch aktualisierte ereignisspezifische Wörterbuch auch auf älteres Video angewandt werden, um darauf gestützte Analysen zu verbessern. Das heißt, vorher aufgenommenem Video von geografisch relevanten Kameras kann das aktualisierte ereignisspezifische Wörterbuch zur Verfügung gestellt werden, um seine Tags zu verwenden.
  • Das Videoaufnahmesystem 14 kann das ereignisspezifische Wörterbuch zur effizienten Videosegmentsuche, Identifizierung, Videoanalyse, Priorisierung und gezielten gemeinsamen Videosegmentnutzung verwenden. Spezifisch können Kameras und zugehörige Verarbeitungsvorrichtungen in dem Videoaufnahmesystem 14 das ereignisspezifische Wörterbuch zum Taggen von aufgenommenem Video verwenden, was die Tagginggenauigkeit erhöht und die Taggingverarbeitungszeit im Kontext von Videoanalysen reduziert. Insgesamt führt dies zu Effizienz, Geschwindigkeit und Optimierung in dem Videoaufnahmesystem 14, wobei Videosegmente priorisiert werden und es erlaubt wird, Video auszufiltern, womit Speichererfordernisse in mobilen Einheiten für das Videoaufnahmesystem 14 reduziert werden. Es wird erwartet, dass diese Intelligenz in dem Videoaufnahmesystem 14 es nutzerfreundlicher machen wird, da es Videoinhalt eng mit Ereignisberichten koppelt und Video nach Hochladen mit den Tags aus dem Wörterbuch leichter durchsuchbar macht. Das System 10 kombiniert somit Videotagging mit einem beschränkten Wörterbuch von Schlüsselwörtern, die aus dynamisch aktualisierten Echtzeit-CAD-Ereignisberichten abgeleitet sind, wodurch eine effiziente Videosegmentsuche, Identifizierung, Videoanalyse, Priorisierung und gezielte gemeinsame Videosegmentnutzung ermöglicht wird.
  • Bezugnehmend auf 2 veranschaulicht in einer exemplarischen Ausführungsform ein Flussdiagramm, ein Videotaggingverfahren 30 beruhend auf einem Ereignisbericht und einem zugehörigen ereignisspezifischen Wörterbuch. In einer exemplarischen Ausführungsform kann das Videotaggingverfahren 30 durch das Videotaggingsystem 10 umgesetzt werden. Das Videotaggingverfahren 30 umfasst das Erfassen von Schlüsselwörtern aus dem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne (Schritt 31). Das Videotaggingverfahren 30 umfasst weiter das Erzeugen eines ereignisspezifischen Wörterbuchs für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter (Schritt 32). Das Videotaggingverfahren 30 umfasst weiter das Bereitstellen des ereignisspezifischen Wörterbuchs aus der ersten Zeitspanne an wenigstens eine Videokamera, die Video auf der Grundlage von mehreren Faktoren aufnimmt, oder an einen Backendserver, der kommunikativ mit der wenigstens einen Videokamera gekoppelt ist (Schritt 33). Die mehreren Faktoren bestimmen, welche Kameras das ereignisspezifische Wörterbuch empfangen. Zum Beispiel können die Schlüsselwörter als ortsbezügliche Schlüsselwörter und ereignisbezügliche Schlüsselwörter kategorisiert werden. Die mehreren Faktoren können direkte Einsatzkräfte des interessierenden Ereignisses, nahegelegene Einsatzkräfte des interessierenden Ereignisses, ortberuhend auf den ortsbezüglichen Schlüsselwörtern und wahrscheinliche Strecken auf der Grundlage der ortsbezüglichen Schlüsselwörter umfassen. Das Videotaggingverfahren 30 kann das ereignisspezifische Wörterbuch der Kamera und/oder dem mit der Kamera verknüpften Backendserver zur Verfügung stellen.
  • Das Videotaggingverfahren 30 umfasst weiter das Verwenden der Schlüsselwörter aus dem Ereignisbericht durch die wenigstens eine Videokamera, um aufgenommenes Video mit Tags zu versehen (Schritt 34). Das Videotaggingverfahren 30 kann weiter das Erfassen aktualisierter Schlüsselwörter umfassen, während sich das interessierende Ereignis in einer zweiten Zeitspanne entwickelt (Schritt 35). Das Videotaggingverfahren 30 kann weiter das Aktualisieren des ereignisspezifischen Wörterbuchs mit den aktualisierten Schlüsselwörtern umfassen (Schritt 36). Das Videotaggingverfahren 30 kann ferner umfassen, dass das ereignisspezifische Wörterbuch nach dem Aktualisieren einer anderen Videokamera auf der Grundlage der mehreren Faktoren oder einem kommunikativ mit der anderen Videokamera gekoppelten Backendserver zur Verfügung gestellt wird (Schritt 37). In einer exemplarischen Ausführungsform werden die Schlüsselwörter von dem CAD-System 12 erfasst, wird das ereignisspezifische Wörterbuch von dem CAD-System 12 für das interessierende Ereignis erzeugt und wird das CAD-System 12 so konfiguriert, dass es das ereignisspezifische Wörterbuch und zugehörige Aktualisierungen an die wenigstens eine Videokamera in dem Videoaufnahmesystem 14 auf der Grundlage der mehreren Faktoren verteilt.
  • Bezugnehmend auf 3 zeigt ein Flussdiagramm in einer exemplarischen Ausführungsform ein Videotaggingverfahren 40 zum Aufnehmen von Video unter Verwendung des ereignisspezifischen Wörterbuchs. Das Videotaggingverfahren 40 kann mit dem Videotaggingverfahren 30 und/oder dem Videotaggingsystem 10 verwendet werden. Das Videotaggingverfahren 40 umfasst das Empfangen des ereignisspezifischen Wörterbuchs an der wenigstens einen Videokamera oder dem kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver (Schritt 41). Das Videotaggingverfahren 40 umfasst weiter das Aufnehmen von Video durch die wenigstens eine Videokamera (Schritt 42). Das Videotaggingverfahren 40 umfasst weiter das Hinzufügen von Schlüsselwörtern zu dem aufgenommenen Video aus dem ereignisspezifischen Wörterbuch (Schritt 43). Das Videotaggingverfahren 40 umfasst weiter das Hochladen des aufgenommenen Videos mit den als Tags hinzugefügten Schlüsselwörtern (Schritt 44). Das Videotaggingverfahren 40 kann ferner das Durchsuchen mehrerer Videos umfassen, wobei die als Tags hinzugefügten Schlüsselwörter als Suchbegriffe verwendet werden (Schritt 45). Das Videotaggingverfahren 40 kann ferner das Analysieren des aufgenommenen Videos zur Erkennung auf der Grundlage der Schlüsselwörter umfassen (Schritt 46). Das Videotaggingverfahren 40 kann ferner das Bereitstellen einer Meldung umfassen, wenn eines der Schlüsselwörter in einem Teil des aufgenommenen Videos erkannt wurde (Schritt 47). In einer exemplarischen Ausführungsform umfasst die wenigstens eine Videokamera einen mobilen digitalen Videorekorder (MDVR). In einer weiteren exemplarischen Ausführungsform umfasst die wenigstens eine Videokamera eine Überwachungskamera und einer der mehreren Faktoren umfasst Nähe zu dem interessierenden Ereignis.
  • Bezugnehmend auf 4 veranschaulicht ein Flussdiagramm in einer exemplarischen Ausführungsform ein Videoanalyseverfahren 50, welches Video auf der Grundlage eines Ereignisberichts und eines zugeordneten ereignisspezifischen Wörterbuchs mit Tags versieht. Das Videoanalyseverfahren 50 kann mit dem Videotaggingsystem 10 und/oder den Videotaggingverfahren 30, 40 verwendet werden. Das Videoanalyseverfahren 50 umfasst das Entwickeln eines ereignisspezifischen Wörterbuchs auf der Grundlage eines Ereignisberichts betreffend ein interessierendes Ereignis (Schritt 51). Das ereignisspezifische Wörterbuch umfasst eine zweckgerichtete Liste von Objekten und Personen, die auf dem Ereignisbericht basiert. Das heißt, ein Ziel des Videoanalyseverfahrens 50 ist es, ein Wörterbuch mit reduzierter Größe zur Echtzeitdurchsuchung oder späteren Durchsuchung von Video zur Verfügung zu stellen. Da das ereignisspezifische Wörterbuch ein Wörterbuch von reduzierter Größe ist, werden Videoanalysen verbessert und effizienter. Das heißt, die Videoanalysen wissen auf der Grundlage des Ereignisberichts, zum Beispiel eines CAD-Berichts, wonach gesucht werden soll. Dies macht die Videoanalysen bedeutend stromlinienförmiger gegenüber einem herkömmlichen Wörterbuch, das mehrere Größenordnungen mehr Ausdrucke enthalten kann.
  • Das Videoanalyseverfahren 50 umfasst das Empfangen des ereignisspezifischen Wörterbuchs an einer ersten Kamera oder an dem kommunikativ mit der ersten Kamera gekoppelten Backendserver auf der Grundlage geografischer Nähe zum interessierenden Ereignis (Schritt 52). Das heißt, das Videoanalyseverfahren 50 kann das ereignisspezifische Wörterbuch an relevante Kameras schieben, so dass das ereignisspezifische Wörterbuch mit Metadaten des Videos als Tags zur Echtzeitverarbeitung oder späteren Verarbeitung versehen werden kann. Das Videoanalyseverfahren 50 umfasst das Aufnehmen von Video durch die erste Kamera (Schritt 53). Das Videoanalyseverfahren 50 umfasst ferner das Versehen des aufgenommenen Videos durch die erste Kamera oder den Backendserver mit Schlüsselwörtern in dem ereignisspezifischen Wörterbuch als Tags (Schritt 54). Wie oben beschrieben wurde, kann hier das aufgenommene Video zugehörige Metadaten mit dem ereignisspezifischen Wörterbuch umfassen.
  • Das Videoanalyseverfahren 50 umfasst das Analysieren des aufgenommenen Videos unter Verwendung der Schlüsselwörter in dem ereignisspezifischen Wörterbuch, um Videoanalysen auf der Grundlage der zweckgerichteten Liste durchzuführen (Schritt 55). Hier führt das Videoanalyseverfahren 50 Videoanalysen mit dem Wörterbuch reduzierter Größe durch. Dieser analysierende Schritt kann von der ersten Kamera in Echtzeit oder nahe Echtzeit sowie von einem Server durchgeführt werden. Das Analysieren kann umfassen, dass das aufgenommene Video nach Begriffen in dem ereignisspezifischen Wörterbuch durchsucht wird. Dieses Durchsuchen kann entweder algorithmisch sein (zum Beispiel finde in dem aufgenommenen Video alles, was mit dem ereignisspezifischen Wörterbuch in Verbindung steht) oder auf Suchbegriffen beruhen (zum Beispiel finde einen spezifischen Begriff). Zum Beispiel nehme man an, dass das ereignisspezifische Wörterbuch einen Begriff für ein „rotes Auto” enthält. Dies verbessert die videoanalytische Funktionalität beträchtlich, da das Analysieren weiß, dass in dem aufgenommenen Video nach einem roten Auto Ausschau gehalten werden muss im Gegensatz zu einer Ausschau nach allen Autos, Lastwagen, Personen usw.
  • Das Videoanalyseverfahren 50 kann das Empfangen eines aktualisierten ereignisspezifischen Wörterbuchs an einer zweiten Kamera oder einem kommunikativ mit der zweiten Kamera gekoppelten Backendserver auf der Grundlage des aktualisierten ereignisspezifischen Wörterbuchs umfassen (Schritt 56). Hier kann sich das Videoanalyseverfahren 50 auf andere Kameras ausdehnen, während sich das Ereignis entwickelt. Das Videoanalyseverfahren 50 kann das Aufnehmen von Video durch die zweite Kamera umfassen (Schritt 57). Das Videoanalyseverfahren 50 kann das Hinzufügen von Schlüsselwörtern in dem aktualisierten ereignisspezifischen Wörterbuch als Tags zu dem aufgenommenen Video durch die zweite Kamera umfassen (Schritt 58). Ähnliche Videoanalysen können für das aufgenommene Video von der zweiten Kamera durchgeführt werden, wie im Vorliegenden bezüglich der ersten Kamera beschrieben ist.
  • Bezugnehmend auf 5 veranschaulicht in einer exemplarischen Ausführungsform ein Flussdiagramm ein Videoaufnahmeverfahren 60 zum Speichern und Durchsuchen von Video auf der Grundlage des Ereignisberichts und des zugeordneten ereignisspezifischen Wörterbuchs. Das Videoaufnahmeverfahren 60 kann mit dem Videotaggingsystem 10, dem Videoaufnahmeverfahren 50 und/oder den Videotaggingverfahren 30, 40 verwendet werden. Das Videoaufnahmeverfahren 60 umfasst das Hochladen des aufgenommenen Videos durch die erste Kamera (Schritt 61). Das Videoaufnahmeverfahren 60 umfasst weiter das Hochladen des aufgenommenen Videos durch die zweite Kamera (Schritt 62). Das Videoaufnahmeverfahren 60 umfasst weiter das Speichern des aufgenommenen Videos durch die erste Kamera mit den Schlüsselwörtern in dem ereignisspezifischen Wörterbuch als Tags (Schritt 63). Das Videoaufnahmeverfahren 60 umfasst weiter das Speichern des aufgenommenen Videos durch die zweite Kamera mit den Schlüsselwörtern in dem aktualisierten ereignisspezifischen Wörterbuch als Tags (Schritt 64). Das Videoaufnahmeverfahren 60 kann ferner das Durchsuchen von Video umfassen, welches das von der ersten Kamera aufgenommene Video und das von der zweiten Kamera aufgenommene Video umfasst, einschließlich von Suchbegriffen, welche die Schlüsselwörter in dem ereignisspezifischen Wörterbuch und die Schlüsselwörter in dem aktualisierten ereignisspezifischen Wörterbuch umfassen (Schritt 65). In einer exemplarischen Ausführungsform umfasst die erste Kamera eine Überwachungskamera in der Nähe des interessierenden Ereignisses auf der Grundlage des ereignisspezifischen Wörterbuchs und die zweite Kamera umfasst einen mobilen Datenrekorder, der mit einer Einsatzkraft auf der Grundlage des aktualisierten ereignisspezifischen Wörterbuchs verknüpft ist.
  • Bezugnehmend auf 6 in einer exemplarischen Ausführungsform veranschaulicht ein Blockdiagramm eine exemplarische Ausführung eines Servers 100 für das CAD-System 12. Der Server 100 kann ein digitaler Computer sein, der, was die Hardwarearchitektur betrifft, allgemein einen Prozessor 102, Ein/Ausgabe(Input/Output, I/O)-Schnittstellen 104, eine Netzschnittstelle 106, einen Datenspeicher 108 sowie Speicher 110 umfasst. Der Fachmann sollte erkennen, dass 6 den Server 100 in einer stark vereinfachten Weise abbildet, und eine praktische Ausführungsform kann zusätzliche Komponenten und geeignet konfigurierte Verarbeitungslogik umfassen, um bekannte oder herkömmliche Funktionsmerkmale zu unterstützen, die im Vorliegenden nicht im Detail beschrieben sind. Die Komponenten (102, 104, 106, 108 und 110) sind kommunikativ über eine lokale Schnittstelle 112 gekoppelt. Die lokale Schnittstelle 112 kann zum Beispiel ein oder mehrere Busse oder andere drahtgebundene oder drahtlose Verbindungen sein, wie dem Fachmann bekannt ist, sie ist jedoch nicht darauf beschränkt. Die lokale Schnittstelle 112 kann zusätzliche Elemente aufweisen, die zum Zwecke der Einfachheit weggelassen wurden, zum Beispiel Steuereinrichtungen, Zwischenspeicher (Cache-Speicher), Treiber, Repeater und Empfänger unter vielen anderen, um Nachrichten zu ermöglichen. Ferner kann die lokale Schnittstelle 112 Adress-, Steuer- und/oder Datenverbindungen umfassen, um geeignete Nachrichten zwischen den oben erwähnten Komponenten zu ermöglichen.
  • Der Prozessor 102 ist eine Handwarevorrichtung zum Ausführen von Softwarebefehlen. Der Prozessor 102 kann jeder eigens gefertigte oder kommerziell verfügbare Prozessor sein, eine Central-Processing-Unit (CPU), ein Hilfsprozessor unter mehreren dem Server 100 zugeordneten Prozessoren, ein halbleiterbasierter Mikroprozessor (in der Form eines Mikrochips oder Chipsatzes) oder allgemein eine beliebige Vorrichtung zum Ausführen von Softwarebefehlen. Wenn der Server 100 in Betrieb ist, ist der Prozessor 102 so konfiguriert, dass er im Speicher 110 gespeicherte Software ausführt, Daten an den und von dem Speicher 110 kommuniziert und allgemein Operationen des Senners 100 gemäß den Softwarebefehlen steuert. Die I/O-Schnittstellen 104 können verwendet werden, um Nutzereingaben von der einen oder den mehreren Vorrichtungen oder Komponenten zu empfangen und/oder zur Bereitstellung von Systemausgaben an sie. Nutzereingaben können zum Beispiel über eine Tastatur, ein Touchpad und/oder eine Maus erfolgen. Systemausgaben können über eine Bildschirmvorrichtung und einen Drucker (nicht gezeigt) erfolgen. I/O-Schnittstellen 104 können zum Beispiel Folgendes umfassen: einen seriellen Ausgang, einen parallelen Ausgang, eine Small-Computer-System-Interface (SCSI), eine serielle ATA (SATA), einen Faserkanal, Infiniband, iSCSI, eine PCI-Expressschnittstelle (PCI-x), eine Infrarot(IR)-Schnittstelle, eine Radiofrequenz(RF)-Schnittstelle und/oder eine Universal-Serial-Bus(USB)-Schnittstelle.
  • Die Netzschnittstelle 106 kann verwendet werden, um den Senner 100 in die Lage zu versetzen, in einem Netzwerk zu kommunizieren, zum Beispiel mit dem Videoaufnahmesystem 14 über die Netzwerke 16, 18 zu kommunizieren. Die Netzschnittstelle 106 kann zum Beispiel eine Ethernetkarte oder einen Ethernetadapter (zum Beispiel 10BaseT, Fast Ethernet, Gigabit Ethernet, 10GbE) oder eine Wireless-Local-Area-Network(WLAN)-Karte oder einen WLAN-Adapter (zum Beispiel 802.11 a/b/g/n) umfassen. Die Netzschnittstelle 106 kann Adress-, Steuer-, und/oder Datenverbindungen umfassen, um geeignete Nachrichten in dem Netzwerk zu ermöglichen. Ein Datenspeicher 108 kann verwendet werden, um Daten zu speichern, wie zum Beispiel aufgenommenes Video, welches mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist. Der Datenspeicher 108 kann beliebige Arten flüchtiger Speicherelemente (zum Beispiel Direktzugriffsspeicher (Random-Access-Memory, RAM, wie zum Beispiel DRAM, SRAM, SDRAM und Ähnliches)), nichtflüchtige Speicherelemente (zum Beispiel ROM, Festplatte, Band, CDROM und Ähnliches) sowie Kombinationen daraus umfassen. Darüber hinaus kann der Datenspeicher 108 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen. In einem Beispiel kann der Datenspeicher 108 innerhalb des Servers 100 angeordnet sein, zum Beispiel als eine interne mit der lokalen Schnittstelle 112 verbundene Festplatte in dem Server 100. Außerdem kann in einer anderen Ausführungsform der Datenspeicher 108 außerhalb des Servers 100 angeordnet sein, zum Beispiel als eine externe Festplatte, die mit den I/O-Schnittstellen 104 verbunden ist (zum Beispiel SCSI oder USB-Verbindung). In einer weiteren Ausführungsform kann der Datenspeicher 108 mit dem Server 100 über ein Netzwerk verbunden sein, zum Beispiel über einen netzwerkverbundenen Archivserver.
  • Der Speicher 110 kann jede Art von flüchtigen Speicherelementen (zum Beispiel Direktzugriffsspeicher (RAM, zum Beispiel DRAM, SRAM, SDRAM usw.)), nichtflüchtigen Speicherelementen (zum Beispiel ROM, Festplatte, Band, CDROM usw.) und Kombinationen daraus umfassen. Darüber hinaus kann der Speicher 110 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen. Man beachte, dass der Speicher 110 eine verteilte Architektur haben kann, wo verschiedene Komponenten voneinander entfernt angeordnet sind, wobei jedoch der Prozessor 102 auf sie zugreifen kann. Die Software in dem Speicher 110 kann ein oder mehrere Softwareprogramme umfassen, von denen jedes eine geordnete Liste von ausführbaren Befehlen zur Umsetzung logischer Funktionen umfasst. Die Software in dem Speicher 110 umfasst ein geeignetes Betriebssystem (Operating System, O/S) 114 und ein oder mehrere Programme 116. Das Betriebssystem 114 steuert im Wesentlichen die Ausführung anderer Computerprogramme, zum Beispiel die einen oder mehreren Programme 116, und stellt Terminierung, Eingabe/Ausgabe-Steuerung, Datei- und Datenverwaltung, Speicherverwaltung und Kommunikationssteuerung und verwandte Dienste zur Verfügung. Das eine oder die mehreren Programme 116 können so konfiguriert sein, dass sie die verschiedenen hier beschriebenen Prozesse, Algorithmen, Verfahren, Techniken usw. umsetzen.
  • In einer exemplarischen Ausführungsform kann der Server 100 ein CAD-System sein und der Speicher 110 kann Befehle enthalten, die, wenn sie ausgeführt werden, bewirken, dass der Prozessor Schlüsselwörter aus einem Ereignisbericht erfasst, der ein interessierendes Ereignis in einer ersten Zeitspanne betrifft, ein ereignisspezifisches Wörterbuch für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter erzeugt, über die Netzschnittstelle 106 das ereignisspezifische Wörterbuch aus der ersten Zeitspanne wenigstens einer Kamera, die Video aufnimmt, oder einem kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver auf der Grundlage mehrerer Faktoren zur Verfügung stellt, das ereignisspezifische Wörterbuch mit den aktualisierten Schlüsselwörtern aktualisiert und das aktualisierte ereignisspezifische Wörterbuch einer anderen Videokamera oder einem kommunikativ mit der anderen Videokamera gekoppelten Backendserver auf der Grundlage der mehreren Faktoren zur Verfügung stellt. Die Befehle können, wenn sie ausgeführt werden, weiter bewirken, dass der Prozessor eine Meldung von einer unter mehreren Videokameras empfängt, die besagt, dass in aufgenommenem Video ein Schlüsselwort aus dem ereignisspezifischen Wörterbuch oder dem aktualisierten ereignisspezifischen Wörterbuch detektiert wurde. Die Befehle können, wenn sie ausgeführt werden, weiter bewirken, dass der Prozessor von der wenigstens einen Videokamera aufgenommenes Video empfängt, wobei das aufgenommene Video mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist, und er Videoanalysen an dem aufgenommenen Video unter Verwendung des damit verknüpften ereignisspezifischen Wörterbuch durchführt.
  • Bezugnehmend auf 7, in einer exemplarischen Ausführungsform, ein Blockdiagramm einer exemplarischen Implementierung einer Kamera 200, die eine Komponente in dem Videoaufnahmesystem 14 ist. Die Kamera 200 kann eine digitale Vorrichtung sein, die hinsichtlich der Hardwarearchitektur im Allgemeinen einen Prozessor 202, eine Videokamera 204, eine Netzschnittstelle 206, einen Datenspeicher 208 und Speicher 210 umfasst. Der Fachmann sollte erkennen, dass 7 die Kamera 200 in einer stark vereinfachten Weise abbildet, und eine praktische Ausführungsform kann zusätzliche Komponenten und geeignete konfigurierte Verarbeitungslogik umfassen, um bekannte oder herkömmliche Funktionsmerkmale zu unterstützen, die hier nicht näher beschrieben sind. Die Komponenten (202, 204, 206, 208 und 210) sind kommunikativ über eine lokale Schnittstelle 212 gekoppelt. Die lokale Schnittstelle 212 kann zum Beispiel, ohne darauf beschränkt zu sein, ein oder mehrere Busse oder andere drahtgebundene oder drahtlose Verbindungen sein, wie dem Fachmann bekannt ist. Die lokale Schnittstelle 212 kann zusätzliche Elemente aufweisen, die zum Zwecke der Einfachheit weggelassen sind, zum Beispiel Steuereinrichtungen, Zwischenspeicher (Cachespeicher), Treiber, Repeater und Empfänger unter vielen anderen, um Nachrichten zu ermöglichen. Die lokale Schnittstelle 212 kann weiter Adress-, Steuer-, und/oder Datenverbindungen umfassen, um geeignete Nachrichten zwischen den oben erwähnten Komponenten zu ermöglichen.
  • Der Prozessor 202 ist eine Hardwareeinrichtung zum Ausführen von Softwarebefehlen. Der Prozessor 202 kann ein beliebiger eigens gefertigter oder kommerziell verfügbarer Prozessor sein, eine Central-Processing-Unit (CPU), eine Hilfsprozessor unter mehreren mit der Kamera 200 verknüpften Prozessoren, ein halbleiterbasierter Mikroprozessor (in der Form eines Mikrochips oder Chipsets) oder allgemein jede Einrichtung zum Ausführen von Softwarebefehlen. Wenn die Kamera 200 in Betrieb ist, ist der Prozessor 202 so konfiguriert, dass er im Speicher 210 gespeicherte Software ausführt, Daten an den und von dem Speicher 210 vermittelt und allgemein Operationen der Kamera 200 gemäß den Softwarebefehlen steuert. In einer exemplarischen Ausführungsform kann der Prozessor 202 einen mobilen optimierten Prozessor umfassen, zum Beispiel optimiert für Energieverbrauch und mobile Anwendungen. Die Videokamera 204 ist so konfiguriert, dass sie Video und/oder Audio aufnimmt. Dies kann mehrere Kameras einschließen. Ferner kann die Videokamera 204 fest oder beweglich (zum Beispiel Drehung, Neigung, Zoom usw.) sein. Die Videokamera 204 kann Video in einem digitalen Format in Übereinstimmung mit verschiedenen bekannten Techniken aufnehmen und das aufgenommene Video in dem Datenspeicher 208 speichern und/oder das aufgenommene Video über die Netzschnittstelle 206 hochladen.
  • Die Netzschnittstelle 206 kann verwendet werden, um es der Kamera 200 zu ermöglichen, in einem Netzwerk zu kommunizieren, zum Beispiel um mit dem CAD-System 12 über die Netzwerke 16, 18 zu kommunizieren. Die Netzschnittstelle 206 kann zum Beispiel eine Ethernetkarte oder einen Ethernetadapter (zum Beispiel 10BaseT, Fast Ethernet, Gigabit Ethernet, 10GbE) oder eine Wireless-Local-Area-Network(WLAN)-Karte oder einen WLAN-Adapter (zum Beispiel 802.11a/b/g/n) umfassen. Die Netzschnittstelle 206 kann Adress-, Steuer-, und/oder Datenverbindungen umfassen, um geeignete Nachrichten in dem Netzwerk zu ermöglichen. Ein Datenspeicher 208 kann verwendet werden, um Daten zu speichern, wie zum Beispiel aufgenommenes Video, das mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist. Der Datenspeicher 208 kann beliebige Arten flüchtiger Speicherelemente (zum Beispiel Direktzugriffsspeicher (RAM, zum Beispiel DRAM, SRAM, SDRAM und ähnliches)), nichtflüchtige Speicherelemente (zum Beispiel ROM, Festplatte, Band, CDROM und ähnliches) und Kombinationen daraus umfassen. Darüber hinaus kann der Datenspeicher 208 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen.
  • Der Speicher 210 kann jede Art flüchtiger Speicherelemente (zum Beispiel Direktzugriffsspeicher (RAM, zum Beispiel DRAM, SRAM, SDRAM usw.)), nichtflüchtige Speicherelemente (zum Beispiel ROM, Festplatte usw.) und Kombinationen daraus umfassen. Darüber hinaus kann der Speicher 210 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen. Man beachte, dass der Speicher 210 eine verteilte Architektur haben kann, wo verschiedene Komponenten voneinander entfernt angeordnet sind, wobei jedoch der Prozessor 202 auf sie zugreifen kann. Die Software im Speicher 210 kann ein oder mehrere Softwareprogramme umfassen, von denen jedes eine geordnete Liste ausführbarer Befehle zum Umsetzen logischer Funktionen enthält. In dem Beispiel von 7 umfasst die Software in dem Speicher 210 ein geeignetes Betriebssystem (O(S) 214 sowie Programme 214. Das Betriebssystem 214 steuert im Wesentlichen die Ausführung anderer Computerprogramme und stellt Terminierung, Eingabe/Ausgabe-Steuerung, Datei- und Datenverwaltung, Speicherverwaltung sowie Kommunikationssteuerung und verwandte Dienste zur Verfügung. Die Programme 214 können verschiedene Anwendungen, Ergänzungen usw. umfassen, die so konfiguriert sind, dass sie Endnutzerfunktionalität mit der Kamera 200 zur Verfügung stellen.
  • In der vorangehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Der Fachmann erkennt jedoch, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne den in den nachfolgenden Ansprüchen festgelegten Umfang der Erfindung zu verlassen. Die Beschreibung und die Zeichnungen sind deshalb nicht als einschränkend sondern vielmehr als erläuternd zu verstehen und es ist beabsichtigt, dass alle solche Modifizierungen innerhalb des Umfangs der vorliegenden Lehre liegen.
  • Die Nutzen, Vorteile, Problemlösungen und jedes Element, welches bewirken kann, dass ein Nutzen, ein Vorteil oder eine Lösung entsteht oder deutlicher wird, sind nicht als kritische, notwendige oder wesentliche Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche zu verstehen. Die Erfindung ist allein durch die angehängten Ansprüche definiert, einschließlich etwaiger während der Anhängigkeit dieser Anmeldung vorgenommener Änderungen und aller Äquivalente jener Ansprüche in der Form, in der sie herausgegeben wurden.
  • Außerdem können in diesem Dokument Relationsbegriffe wie zum Beispiel erster und zweiter, oben und unten und Ähnliche verwendet werden, um nur eine Einheit oder Aktion von einer anderen Einheit oder Aktion zu unterscheiden, ohne notwendigerweise eine solche Relation oder Ordnung zwischen solchen Einheiten oder Aktionen vorauszusetzen oder zu implizieren. Die Begriffe „umfasst”, „umfassend”, „besitzt”, „besitzend”, „schließt ein”, „einschließlich”, „enthält”, „enthaltend” oder jede andere Variante davon sind so zu verstehen, dass sie eine nicht exklusive Inklusion abdecken, so dass ein Verfahren, eine Methode, ein Gegenstand oder eine Vorrichtung, die eine Liste von Elementen umfasst, hat, einschließt, enthält, nicht nur diese Elemente, sondern weitere Elemente einschließen kann, die nicht explizit aufgeführt sind oder einem solchen Verfahren, Methode, Gegenstand oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ...ein”, „hat ...ein”, „schließt ein ...ein”, „enthält ...ein” vorangestellt ist, schließt ohne zusätzliche Einschränkungen die Existenz weiterer identischer Elemente in dem Verfahren, der Methode, dem Gegenstand oder der Vorrichtung, der/die/das Element umfasst, hat, einschließt, enthält nicht aus. Die Begriffe „ein” und „eine” sind als eins oder mehr definiert, außer wenn im Vorliegenden explizit etwas Anderes gesagt wird. Die Ausdrücke „substantiell”, „im Wesentlichen”, „ungefähr”, „etwa” oder jede andere Variante davon sind definiert als nahe gemäß dem Verständnis des Fachmanns, und in einer nichteinschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb 10%, in einer anderen Ausführungsform als innerhalb 5%, in einer anderen Ausführungsform als innerhalb 1% und in einer weiteren Ausführungsform als innerhalb 0,5%. Der Begriff „gekoppelt”, wie er hier verwendet wird, ist definiert als verbunden, wenn auch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die auf eine bestimmte Weise „konfiguriert” ist, ist in wenigstens dieser Weise konfiguriert, kann aber auch auf Weisen konfiguriert sein, die nicht angegeben sind.
  • Man wird erkennen, dass manche Ausführungsformen einen oder mehrere allgemeine oder spezialisierte Prozessoren (oder „Verarbeitungseinrichtungen”) wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, besonders eingerichtete Prozessoren und feldprogrammierbare Gatteranordnungen (Field Programmable Gate Arrays, FPGAs) und individuelle gespeicherte Programmbefehle (einschließlich sowohl Software als auch Firmware), welche den einen oder die mehreren Prozessoren derart steuern, dass sie zusammen mit bestimmten nicht Prozessorschaltungen einige, die meisten oder alle der Funktionen des hier beschriebenen Verfahrens und/oder Vorrichtung umsetzen. Alternativ könnten manche oder alle Funktionen durch einen Zustandsapparat implementiert werden, der keine gespeicherten Programmbefehle hat, oder in einem oder in mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder manche Kombinationen bestimmter Funktionen als individualisierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Eine Ausführungsform kann darüberhinaus als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (zum Beispiel einen mit Prozessor) so zu programmieren, dass er ein Verfahren wie hier beschrieben und beansprucht durchführt. Beispiele solcher computerlesbarer Speichermedien schließen folgendes ein, sind aber nicht darauf beschränkt: Eine Festspeicherplatte, ein CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, ein ROM (Read Only Memory), ein PROM (Programmable Read Only Memory), ein EPROM (Erasable Programmable Read Only Memory), ein EEPROM (Electrically Erasable Programmable Read Only Memory) und ein Flashspeicher. Ferner wird erwartet, dass der Fachmann ungeachtet möglicherweise signifikanten Aufwands und vieler Gestaltungsoptionen, die zum Beispiel durch die vorhandene Zeit, die gegenwärtige Technologie und wirtschaftliche Erwägungen motiviert sind, ohne weiteres imstande sein wird, solche Softwareanweisungen und Programme und integrierte Schaltungen mit einem Minimum von Versuchen zu erzeugen, wenn er sich von den hier offenbarten Konzepten und Prinzipien leiten lässt.
  • Die Zusammenfassung der Offenbarung soll es dem Leser ermöglichen, schnell die Natur der technischen Offenbarung zu erkennen. Sie wird mit dem Verständnis eingereicht, dass man sie nicht dazu verwenden wird, um den Umfang oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Außerdem kann man in der vorangehenden ausführlichen Beschreibung sehen, dass verschiedene Merkmale in verschiedenen Ausführungsformen in Gruppen zusammengefasst sind, zum Zwecke einer flüssigen Offenbarung. Diese Weise der Offenbarung darf nicht in dem Sinne ausgelegt werden, dass sie eine Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als in jedem Anspruch ausdrücklich angegeben sind. Wie die nachfolgenden Ansprüche erkennen lassen, liegen erfinderische Gegenstände vielmehr in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Die nachfolgenden Ansprüche werden somit hiermit in die ausführliche Beschreibung mit aufgenommen, wobei jeder Anspruch für sich selbst als ein separat beanspruchter Gegenstand steht.

Claims (20)

  1. Videotaggingverfahren auf der Grundlage eines Ereignisberichts und eines zugeordneten ereignisspezifischen Wörterbuchs, mit: Erfassen von Schlüsselwörtern aus dem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne; Erzeugen eines ereignisspezifischen Wörterbuchs für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter; Bereitstellen des aktualisierten ereignisspezifischen Wörterbuchs an wenigstens eine Videokamera, die auf der Grundlage mehrerer Faktoren Video aufnimmt, oder einen kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver; und Verwenden der Schlüsselwörter und der aktualisierten Schlüsselwörter aus dem Ereignisbericht durch die wenigstens eine Videokamera, um aufgenommenes Video mit Tags zu versehen.
  2. Videotaggingverfahren nach Anspruch 1, weiter umfassend: Erfassen von aktualisierten Schlüsselwörtern in einer zweiten Zeitspanne, während sich das interessierende Ereignis entwickelt; Aktualisieren des ereignisspezifischen Wörterbuchs mit den aktualisierten Schlüsselwörtern;
  3. Videotaggingverfahren nach Anspruch 1, weiter umfassend: Bereitstellen des ereignisspezifischen Wörterbuchs nach der Aktualisierung an eine weitere Videokamera auf der Grundlage der mehreren Faktoren oder an einen kommunikativ mit der weiteren Videokamera gekoppelten Backendserver.
  4. Videotaggingverfahren nach Anspruch 1, wobei die Schlüsselwörter als ortsbezügliche Schlüsselwörter und ereignisbezügliche Schlüsselwörter kategorisiert werden.
  5. Videotaggingverfahren nach Anspruch 4, wobei die mehreren Faktoren Beliebiges aus dem Folgenden umfassen: direkte Einsatzkräfte des interessierenden Ereignisses, sich in der Nähe befindliche Einsatzkräfte des interessierenden Ereignisses, Ort auf der Grundlage der ortsbezüglichen Schlüsselwörter und wahrscheinliche Strecken auf der Grundlage der ortsbezüglichen Schlüsselwörter.
  6. Videotaggingverfahren nach Anspruch 1, wobei die Schlüsselwörter von einem rechnergestützten Einsatzleitsystem (CAD-System) erfasst werden, wobei das ereignisspezifische Wörterbuch für das interessierende Ereignis von dem CAD-System erzeugt wird und wobei das CAD-System so konfiguriert ist, dass es das ereignisspezifische Wörterbuch und zugehörige Aktualisierungen an die wenigstens eine Videokamera auf der Grundlage der mehreren Faktoren verteilt.
  7. Videotaggingverfahren nach Anspruch 6, weiter umfassend: Empfangen des ereignisspezifischen Wörterbuchs an der wenigstens einen Videokamera oder dem kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver; Aufnehmen von Video durch die wenigstens eine Videokamera; Versehen des aufgenommenen Videos mit den Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch; und Hochladen des aufgenommenen Videos mit den als Tags hinzugefügten Schlüsselwörtern.
  8. Videotaggingverfahren nach Anspruch 7, weiter umfassend: Durchsuchen mehrerer Videos, wobei die als Tags hinzugefügten Schlüsselwörter als Suchbegriffe verwendet werden.
  9. Videotaggingverfahren nach Anspruch 7, weiter umfassend: Analysieren des aufgenommenen Videos zur Detektion auf der Grundlage der Schlüsselwörter; und Bereitstellen einer Meldung nach Detektion eines der Schlüsselwörter in einem Abschnitt des aufgenommenen Videos.
  10. Videotaggingverfahren nach Anspruch 1, wobei die wenigstens eine Videokamera einen mobilen digitalen Videorekorder umfasst.
  11. Videotaggingverfahren nach Anspruch 1, wobei die wenigstens eine Videokamera eine Überwachungskamera umfasst und einer der mehreren Faktoren Nähe zu dem interessierenden Ereignis umfasst.
  12. Videoanalyseverfahren, mit: Entwickeln eines ereignisspezifischen Wörterbuchs auf der Grundlage eines Ereignisberichts, der ein interessierendes Ereignis betrifft, wobei das ereignisspezifische Wörterbuch eine zweckgerichtete Liste von Objekten und Personen umfasst, die auf dem Ereignisbericht beruht; Empfangen des ereignisspezifischen Wörterbuchs an einer ersten Kamera oder dem Backendserver, welcher auf der Grundlage geografischer Nähe zu dem interessierenden Ereignis kommunikativ mit der ersten Kamera gekoppelt ist; Aufnehmen von Video durch die erste Kamera; Versehen des aufgenommenen Videos durch die erste Kamera oder den Backendserver mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch; und Analysieren des aufgenommenen Videos unter Verwendung der Schlüsselwörter in dem ereignisspezifischen Wörterbuch, um Videoanalysen auf der Grundlage der zweckgerichteten Liste durchzuführen.
  13. Videoanalyseverfahren nach Anspruch 12, weiter umfassend: Empfangen eines aktualisierten ereignisspezifischen Wörterbuchs an einer zweiten Kamera oder einem kommunikativ mit der zweiten Kamera gekoppelten Backendserver auf der Grundlage des aktualisierten ereignisspezifischen Wörterbuchs ist; Aufnehmen von Video durch die zweite Kamera; und Versehen des aufgenommenen Videos durch die zweite Kamera mit Schlüsselwörtern aus dem aktualisierten ereignisspezifischen Wörterbuch.
  14. Videoanalyseverfahren nach Anspruch 13, weiter umfassend: Hochladen des aufgenommenen Videos durch die erste Kamera; Hochladen des aufgenommenen Videos durch die zweite Kamera; Speichern des aufgenommenen Videos durch die erste Kamera, versehen mit den Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch; und Speichern des aufgenommenen Videos durch die zweite Kamera, versehen mit den Schlüsselwörtern aus dem aktualisierten ereignisspezifischen Wörterbuch.
  15. Videoanalyseverfahren nach Anspruch 14, weiter umfassend: Durchsuchen von Video, welches das von der ersten Kamera aufgenommene Video und das von der zweiten Kamera aufgenommene Video umfasst, mit Suchbegriffen, welche die Schlüsselwörter in dem ereignisspezifischen Wörterbuch und die Schlüsselwörter in dem aktualisierten ereignisspezifischen Wörterbuch umfassen.
  16. Videoanalyseverfahren nach Anspruch 13, wobei die erste Kamera eine Überwachungskamera in der Nähe des interessierenden Ereignisses auf der Grundlage des ereignisspezifischen Wörterbuchs umfasst und wobei die zweite Kamera einen mobilen Videodatenrekorder umfasst, der mit einer Einsatzkraft auf der Grundlage des aktualisierten ereignisspezifischen Wörterbuchs verknüpft ist.
  17. Rechnergestütztes Einsatzleitsystem (CAD-System) mit: einer Netzschnittstelle, die kommunikativ mit einem Netzwerk gekoppelt ist; einem Prozessor, der kommunikativ mit der Netzschnittstelle gekoppelt ist; einem Speicher, der Befehle enthält, die, wenn sie ausgeführt werden, bewirken, dass der Prozessor: Schlüsselwörter aus einem Ereignisbericht erfasst, der ein interessierendes Ereignis in einer ersten Zeitspanne betrifft; ein ereignisspezifisches Wörterbuch für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter erzeugt; das ereignisspezifische Wörterbuch aus der ersten Zeitspanne über die Netzschnittstelle wenigstens einer Videokamera, die Video aufnimmt, oder einem kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver auf der Grundlage mehrerer Faktoren zur Verfügung stellt; aktualisierte Schlüsselwörter erfasst, während sich das interessierende Ereignis in einer zweiten Zeitspanne entwickelt; das ereignisspezifische Wörterbuch mit den aktualisierten Schlüsselwörtern aktualisiert; und das aktualisierte ereignisspezifische Wörterbuch einer weiteren Videokamera oder einem kommunikativ mit der weiteren Videokamera gekoppelten Backendserver auf der Grundlage der mehreren Faktoren zur Verfügung stellt.
  18. CAD-System nach Anspruch 17, wobei die mehreren Faktoren Beliebiges aus dem Folgenden umfassen: direkte Einsatzkräfte des interessierenden Ereignisses, sich in der Nähe befindliche Einsatzkräften des interessierenden Ereignisses, Ort auf der Grundlage der ortsbezüglichen Schlüsselwörter und wahrscheinliche Strecken auf der Grundlage der ortsbezüglichen Schlüsselwörter.
  19. CAD-System nach Anspruch 16, wobei die Befehle, wenn sie ausgeführt werden, weiter bewirken, dass der Prozessor: eine Meldung von einer unter mehreren Videokameras oder zugehörigem Backendserver empfängt, die besagt, dass ein Schlüsselwort aus dem ereignisspezifischen Wörterbuch oder dem aktualisierten ereignisspezifischen Wörterbuch in aufgenommenem Video detektiert worden ist, wobei die Meldung auf der Grundlage von Videoanalysen unter Verwendung des ereignisspezifischen Wörterbuchs erzeugt wird.
  20. CAD-System nach Anspruch 16, wobei die Befehle, wenn sie ausgeführt werden, weiter bewirken, dass der Prozessor: aufgenommenes Video von der wenigstens einen Videokamera oder zugehörigem Backendserver empfängt, wobei das aufgenommene Video mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist; und eine Videoanalyse des aufgenommenen Videos unter Verwendung des mit ihm verknüpften ereignisspezifischen Wörterbuchs ausführt.
DE112013005981.9T 2012-12-14 2013-11-25 Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten Pending DE112013005981T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/714,663 US8837906B2 (en) 2012-12-14 2012-12-14 Computer assisted dispatch incident report video search and tagging systems and methods
US13/714,663 2012-12-14
PCT/US2013/071596 WO2014092990A1 (en) 2012-12-14 2013-11-25 Systems and methods for computer assisted dispatch, incident report-based video search and tagging

Publications (1)

Publication Number Publication Date
DE112013005981T5 true DE112013005981T5 (de) 2015-10-22

Family

ID=49759586

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013005981.9T Pending DE112013005981T5 (de) 2012-12-14 2013-11-25 Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten

Country Status (6)

Country Link
US (1) US8837906B2 (de)
AU (1) AU2013360077B2 (de)
CA (1) CA2894648C (de)
DE (1) DE112013005981T5 (de)
GB (1) GB2523496A (de)
WO (1) WO2014092990A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9559967B2 (en) 2014-05-29 2017-01-31 Tait Limited Policy implementation over LMR and IP networks
TWI606342B (zh) 2014-10-20 2017-11-21 愛克勝企業公司 分散式控制的系統及方法
US10192277B2 (en) 2015-07-14 2019-01-29 Axon Enterprise, Inc. Systems and methods for generating an audit trail for auditable devices
US11868354B2 (en) 2015-09-23 2024-01-09 Motorola Solutions, Inc. Apparatus, system, and method for responding to a user-initiated query with a context-based response
US10372755B2 (en) 2015-09-23 2019-08-06 Motorola Solutions, Inc. Apparatus, system, and method for responding to a user-initiated query with a context-based response
EP3229174A1 (de) * 2016-04-06 2017-10-11 L-1 Identity Solutions AG Methode zur videountersuchung
US10666808B2 (en) 2016-09-21 2020-05-26 Motorola Solutions, Inc. Method and system for optimizing voice recognition and information searching based on talkgroup activities
US11593668B2 (en) 2016-12-27 2023-02-28 Motorola Solutions, Inc. System and method for varying verbosity of response in a group communication using artificial intelligence
US10051442B2 (en) 2016-12-27 2018-08-14 Motorola Solutions, Inc. System and method for determining timing of response in a group communication using artificial intelligence
US9961516B1 (en) 2016-12-27 2018-05-01 Motorola Solutions, Inc. System and method for obtaining supplemental information in group communication using artificial intelligence
EP3607457A4 (de) * 2017-04-05 2021-01-13 Art Research And Technology, L.L.C. Verfahren und vorrichtung zum referenzieren, filtern und kombinieren von inhalt
US20190149959A1 (en) 2017-11-16 2019-05-16 Motorola Solutions, Inc Method for controlling a virtual talk group memeber to perform an assignment
CN107992627A (zh) * 2017-12-25 2018-05-04 浙江宇视科技有限公司 需求视频实时查找方法与装置
US10847187B1 (en) * 2018-05-24 2020-11-24 Lytx, Inc. Dynamic pairing of device data based on proximity for event data retrieval
US11024137B2 (en) * 2018-08-08 2021-06-01 Digital Ally, Inc. Remote video triggering and tagging
US11715302B2 (en) * 2018-08-21 2023-08-01 Streem, Llc Automatic tagging of images using speech recognition
US10635906B1 (en) * 2019-02-21 2020-04-28 Motorola Solutions, Inc. Video annotation
CN110134703A (zh) * 2019-05-21 2019-08-16 秒针信息技术有限公司 一种关键词库更新方法及装置
US20210200826A1 (en) * 2019-12-26 2021-07-01 Motorola Solutions, Inc. Appearance search for incident response
WO2021256941A1 (en) * 2020-06-19 2021-12-23 Motorola Solutions, Inc Method and device for tagging incident data captured by non-public-safety agency controlled cameras
US11443510B2 (en) 2020-08-03 2022-09-13 Motorola Solutions, Inc. Method, system and computer program product that provides virtual assistance in facilitating visual comparison
US20230088315A1 (en) * 2021-09-22 2023-03-23 Motorola Solutions, Inc. System and method to support human-machine interactions for public safety annotations

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5895473A (en) 1995-08-11 1999-04-20 Integrated Industrial Information, Inc. System for extracting text from CAD files
US6154754A (en) 1997-09-25 2000-11-28 Siemens Corporate Research, Inc. Automatic synthesis of semantic information from multimedia documents
JP2001043215A (ja) 1999-08-02 2001-02-16 Sony Corp 文書処理装置、文書処理方法、及び記録媒体
US6877010B2 (en) 1999-11-30 2005-04-05 Charles Smith Enterprises, Llc System and method for computer-assisted manual and automatic logging of time-based media
US6408304B1 (en) 1999-12-17 2002-06-18 International Business Machines Corporation Method and apparatus for implementing an object oriented police patrol multifunction system
US20050101334A1 (en) 2003-10-24 2005-05-12 Brown Daniel P. System and method for incident reporting, information gathering, reconstructing and alerting
US7760908B2 (en) 2005-03-31 2010-07-20 Honeywell International Inc. Event packaged video sequence
US7930629B2 (en) * 2005-07-14 2011-04-19 Microsoft Corporation Consolidating local and remote taxonomies
US20100005485A1 (en) 2005-12-19 2010-01-07 Agency For Science, Technology And Research Annotation of video footage and personalised video generation
EP1977405A2 (de) 2006-01-23 2008-10-08 Ad Group Systeme und verfahren zur ausgabe von notfallmitteilungen
JP2009048348A (ja) * 2007-08-17 2009-03-05 Sony Corp 情報処理装置、文字情報の候補の検索方法および文字情報の候補の検索プログラム
US8640030B2 (en) 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback
US7814151B2 (en) * 2007-10-23 2010-10-12 Cisco Technology, Inc. Wirelessly-enabled identification of digital media generated at an event
US20090248643A1 (en) 2008-03-26 2009-10-01 Wasson Leon F Crime information coordination system and method
US10354689B2 (en) 2008-04-06 2019-07-16 Taser International, Inc. Systems and methods for event recorder logging
US8385971B2 (en) 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
US10419722B2 (en) 2009-04-28 2019-09-17 Whp Workflow Solutions, Inc. Correlated media source management and response control
EP2473984A1 (de) 2009-09-01 2012-07-11 Demaher Industrial Cameras Pty Limited Videokamerasystem
US20110109747A1 (en) 2009-11-12 2011-05-12 Siemens Industry, Inc. System and method for annotating video with geospatially referenced data
WO2012122269A2 (en) 2011-03-07 2012-09-13 Kba2, Inc. Systems and methods for analytic data gathering from image providers at an event or geographic location
US8760290B2 (en) 2011-04-08 2014-06-24 Rave Wireless, Inc. Public safety analysis system

Also Published As

Publication number Publication date
AU2013360077A1 (en) 2015-06-18
GB201509562D0 (en) 2015-07-15
CA2894648A1 (en) 2014-06-19
CA2894648C (en) 2017-08-29
WO2014092990A1 (en) 2014-06-19
US8837906B2 (en) 2014-09-16
US20140169752A1 (en) 2014-06-19
AU2013360077B2 (en) 2016-06-23
GB2523496A (en) 2015-08-26

Similar Documents

Publication Publication Date Title
DE112013005981T5 (de) Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten
DE102012218966B4 (de) Verfahren und System zum Kennzeichnen von durch Dinge im Internet der Dinge erzeugten Originaldaten
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE112017006448T5 (de) System und Verfahren zum Anzeigen von interessierenden Objekten an einem Ereignisort
DE112019004764T5 (de) Verfahren und vorrichtungen zur erzeugung von maskierten bildern auf der grundlagevon selektiven datenschutz- und/oder standortverfolgungen
DE102014203833A1 (de) Verfahren und System zur automatischen hierarchischen Schulung eines Fahrzeugnachweis-Systems im Gelände
CN103294775B (zh) 基于地理时空约束的警务云图像识别车辆管控系统
DE102019109288A1 (de) Anlage und Verfahren für Analyse des importierten Videos
DE112011102043T5 (de) Objekterfassungsmetadaten
DE102013209055A1 (de) Datenquellenidentifizierung, Datensammlung und Datenspeicherung für Verkehrsereignisse
DE112017000669T5 (de) Semantische Segmentierung auf der Grundlage einer globalen Optimierung
WO2017000880A1 (zh) 信息处理方法、信息处理装置和视频监控系统
CN109740003B (zh) 一种归档方法及装置
DE112017005148T5 (de) Verfahren und vorrichtung zum ausführen von handlungen bei ereignissen der öffentlichen sicherheit basierend auf handlungen, die bei früheren ereignissen ausgeführt wurden
DE112019004488T5 (de) Doppelmodus-datenerfassungssystem zur kollisionserfassung und objektdimensionierung
DE112013005752T5 (de) Verfahren und Vorrichtung zum Hochladen von Daten
CN102682619A (zh) 一种基于车辆特征视频识别的停车场车辆定位系统
CN104408934A (zh) 一种基于交通数据的涉案车辆分析方法
CN110390813B (zh) 基于车型鉴别的大数据处理系统
US20230412769A1 (en) Scalable Visual Computing System
DE102016225600A1 (de) Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras
Guo et al. A new detection algorithm for alien intrusion on highway
CN115567563B (zh) 基于端边云的综合交通枢纽监测预警系统及其控制方法
DE112013003815T5 (de) Systeme und Verfahren zum Korrelieren von Wegen mobiler Vorrichtungen
DE112016006880T5 (de) Systeme und Verfahren zum Abladen von Beständen von einem tragbaren elektronischen Gerät in einen Langzeitspeicher

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: MOTOROLA SOLUTIONS, INC., CHICAGO, US

Free format text: FORMER OWNER: MOTOROLA SOLUTIONS, INC., SCHAUMBURG, ILL., US

R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017300000

Ipc: G06F0016000000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0016000000

Ipc: G06F0016710000