-
Gebiet der Erfindung
-
Die Erfindung betrifft allgemein das Taggen und die Analyse von Video und insbesondere Systeme und Verfahren zum Verwenden von Ereignisberichten einer rechnergestützten Einsatzleitung (Computer-aided dispatch, CAD, oder Computer-assisted-Dispatch) für Videotagging, Suchen, Analysen, usw.
-
Hintergrund
-
Videoüberwachungssysteme und -verfahren werden in unterschiedlichen geografischen Bereichen eingesetzt und vernetzt. Zum Beispiel kann ein mobiler digitaler Videorekorder (MDVR) im Kontext der öffentlichen Sicherheit (zum Beispiel Polizei, Feuerwehr, Arzt usw.) auf einem Fahrzeugdach, an Bediensteten der öffentlichen Sicherheit oder ähnlichem angeordnet sein, zum Beispiel an einer Stange befestigt, usw. Wie man mit der zunehmenden Verbreitung von Videoüberwachungssystemen und -verfahren erwarten kann, werden bedeutende Mengen an Video aufgezeichnet und aufgenommen, was es zunehmend wichtig macht, aufgezeichnetes Video zu indizieren, um es nach Merkmalen durchsuchbar zu machen. Des Weiteren wäre es hilfreich, das Video vor einem Hochladevorgang und/oder Speichern/Archivieren vorzufiltern. In einem MDVR, der in einer Funktion der öffentlichen Sicherheit verwendet wird, gibt es häufig einen Ereignisbericht, der für Zeitspannen, während derer Video aufgenommen wird, wirksam ist. Systeme und Verfahren der rechnergestützten Einsatzleitung (CAD) können verwendet werden, um die Ereignisberichte zu erzeugen. Typischerweise gibt eine Einsatzleitung relevante Rufeinzelheiten an Mitarbeiter im Außeneinsatz bekannt, die entsprechend aktiv werden. Herkömmlicherweise gibt es keine Echtzeitintegration von CAD-Ereignisberichten und im Außeneinsatz aufgenommenem Video.
-
Videoanalyse bezeichnet allgemein das Verarbeiten und Durchsuchen von Video, um darin etwas in einem oder mehreren Frames des aufgenommenen Videos Enthaltene zu detektieren. Herkömmlicherweise ist Videoanalyse schwierig wegen all der möglichen Permutationen von Objekten, Personen usw., die sich in jedem Videoframe befinden könnten. Insbesondere können alle Objekte, die sich in Videoframes im Kontext einer Videoanalyse befinden können, in einem sogenannten Wörterbuch enthalten sein. Jedoch ist die Verarbeitung komplex und zeitaufwändig, da herkömmliche Wörterbücher extrem umfangreich sind.
-
Dementsprechend besteht wegen der enormen Verbreitung von im Außeneinsatz aufgenommenem Video ein Bedarf nach Systemen und Verfahren zum Taggen und Durchsuchen von Video, um das Abrufen, Speichern und/oder Analysieren zu unterstützen.
-
Kurze Beschreibung der Zeichnungen
-
Die begleitenden Zeichnungen, in denen gleiche Bezugszeichen durch die einzelnen Ansichten hinweg identische oder funktionell ähnliche Elemente bezeichnen, sind zusammen mit der unten stehenden ausführlichen Beschreibung Teil der Beschreibung und dienen dazu, Ausführungsformen von Konzepten, die die beanspruchte Erfindung einschließen, weiter zu illustrieren und verschiedene Prinzipien und Vorteile jener Ausführungsformen zu erläutern.
-
1 ist ein Netzdiagramm eine Videotaggingsystems in Übereinstimmung mit einigen Ausführungsformen.
-
2 ist ein Flussdiagramm eines Videotaggingverfahrens beruhend auf einem Ereignisbericht und einem zugehörigen ereignisspezifischen Wörterbuch in Übereinstimmung mit einigen Ausführungsformen.
-
3 ist ein Flussdiagramm eines Videotaggingverfahrens zum Aufnehmen von Video unter Verwendung des ereignisspezifischen Wörterbuchs in Übereinstimmung mit einigen Ausführungsformen.
-
4 ist ein Flussdiagramm eines Videoanalyseverfahrens, welches Video auf der Grundlage eines Ereignisberichts und eines zugehörigen ereignisspezifischen Wörterbuchs in Übereinstimmung mit einigen Ausführungsformen mit Tags versieht.
-
5 ist ein Flussdiagramm eines Videoanalyseverfahrens zum Speichern und Durchsuchen von Video auf der Grundlage des Ereignisberichts und des zugehörigen ereignisspezifischen Wörterbuchs in Übereinstimmung mit einigen Ausführungsformen.
-
6 ist ein Blockdiagramm, welches eine exemplarische Ausführung eines Servers für das CAD-System in Übereinstimmung mit einigen Ausführungsformen veranschaulicht.
-
7 ist ein Blockdiagramm einer exemplarischen Ausführung einer Kamera, die eine Komponente in dem Videoaufnahmesystem in Übereinstimmung mit einigen Ausführungsformen ist.
-
Der Fachmann wird erkennen, dass Elemente in den Zeichnungen mit dem Ziel der Einfachheit und Klarheit dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Abmessungen mancher Elemente in den Zeichnungen im Vergleich zu anderen Elementen übertrieben sein, um ein besseres Verständnis von Ausführungsformen der Erfindung zu erleichtern.
-
Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es zweckdienlich war, durch konventionelle Zeichen in den Zeichnungen dargestellt, wobei nur jene spezifischen Details gezeigt werden, die zum Verstehen der Ausführungsformen der Erfindung wichtig sind, um die Offenbarung nicht durch Einzelheiten zu verschleiern, die dem Fachmann, der die vorliegende Beschreibung nutzt, ohne weiteres klar sind.
-
Ausführliche Beschreibung
-
In verschiedenen exemplarischen Ausführungsformen werden Systeme und Verfahren beschrieben, die Computer-assisted-Dispatch-Ereignisberichte oder ähnliches zum Taggen, Durchsuchen, Analysieren, usw. von Video verwenden. In einer exemplarischen Ausführungsform integrieren die Systeme und Verfahren CAD mit Videoüberwachungssystemen, um beim Durchsuchen von Videoinhalt und anschließendem Tagging des Videoinhalts zum Zwecke einer Videoanalyse zu helfen. Zum Beispiel können die Systeme und Verfahren das Extrahieren von Schlüsselwörtern aus einem CAD-Ereignisbericht und das Erzeugen eines kleinen, zweckgerichteten und ereignisspezifischen Wörterbuchs umfassen, auf dessen Grundlage in Echtzeit oder später eine Videosuche durchgeführt werden soll. Vorteilhafterweise erhöht das kleine, zweckgerichtete und ereignisspezifische Wörterbuch die Genauigkeit des Taggings und verringert die Taggingverarbeitungszeit in Bezug auf Videoanalysen. Des Weiteren können die Systeme und Verfahren eine Vorgehensweise mit mehreren Durchläufen in Echtzeit umfassen, die kontinuierlich das kleine, zweckgerichtete und ereignisspezifische Wörterbuch aktualisiert, während der CAD-Ereignisbericht aktualisiert wird und während sich das interessierende Ereignis entwickelt. Dies kann zur Verarbeitung von aufgenommenem Video in Echtzeit, naher Echtzeit oder später verwendet werden. Die CAD-Systemkamera kann kommunikativ mit einem Videoüberwachungssystem gekoppelt sein, um das kleine, zweckgerichtete und ereignisspezifische Wörterbuch auf der Grundlage einer individuellen Relevanz der Kamera für das interessierende Ereignis zu verbreiten.
-
Wie im Vorliegenden beschrieben wird, bezeichnet Tagging allgemein das Verknüpfen von Schlüsselwörtern wie zum Beispiel in einem ereignisspezifischen Wörterbuch oder ähnlichem mit Videometadaten. Mit diesem Tagging kann das Durchsuchen ein algorithmisches Durchsuchen von aufgenommenem Video unter Verwendung des ereignisspezifischen Wörterbuchs einschließen, wie zum Beispiel das Finden von allem in dem aufgenommenen Video, was mit dem ereignisspezifischen Wörterbuch zusammenhängt oder das Durchsuchen des aufgenommenen Videos auf der Grundlage von Suchbegriffen. In einem exemplarischen Aspekt verbessern die Systeme und Verfahren Videoanalysen enorm, indem sie das zugehörige Wörterbuch beträchtlich verkleinern, das heißt das ereignisspezifische Wörterbuch, auf der Grundlage von Begriffen, die einem Ereignisbericht entnommen sind, das heißt einem CAD-Ereignisbericht oder ähnlichem. Mit einem reduzierten Wörterbuch, welches für ein Ereignis relevant ist, können Videoanalysen ein mächtiges Werkzeug sein.
-
In einer exemplarischen Ausführungsform umfasst ein Videotaggingverfahren, das auf einem Ereignisbericht und einem zugehörigen ereignisspezifischen Wörterbuch beruht, das Erfassen von Schlüsselwörtern aus dem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne; das Erzeugen eines ereignisspezifischen Wörterbuchs für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter; das Bereitstellen des ereignisspezifischen Wörterbuchs aus der ersten Zeitspanne für wenigstens eine Videokamera, die Video aufnimmt auf der Grundlage mehrerer Faktoren, oder für einen Backendserver, der kommunikativ mit der wenigstens einen Videokamera gekoppelt ist; und das Verwenden der Schlüsselwörter aus dem Ereignisbericht durch die wenigstens eine Videokamera, um aufgenommenes Video mit Tags zu versehen.
-
In einer weiteren exemplarischen Ausführungsform umfasst ein Videoanalyseverfahren das Entwickeln eines ereignisspezifischen Wörterbuchs auf der Grundlage eines Ereignisberichts betreffend ein interessierendes Ereignis, wobei das ereignisspezifische Wörterbuch eine auf dem Ereignisbericht beruhende zweckgerichtete Liste von Objekten und Personen enthält; Empfangen des ereignisspezifischen Wörterbuchs an einer ersten Kamera auf der Grundlage geografischer Nähe zu dem interessierenden Ereignis; Erfassen von Video durch die erste Kamera; Versehen des erfassten Video mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch durch die erste Kamera; und Analysieren des erfassten Video unter Verwendung der Schlüsselwörter in dem ereignisspezifischen Wörterbuch, um Videoanalysen auf der Grundlage der zweckgerichteten Liste durchzuführen.
-
In einer weiteren exemplarischen Ausführungsform umfasst ein Computer-assisted-Dispatch-System eine Netzschnittstelle, die kommunikativ mit einem Netzwerk gekoppelt ist; einen Prozessor, der kommunikativ mit der Netzschnittstelle gekoppelt ist; Speicher, der Befehle enthält, die, wenn sie ausgeführt werden, bewirken, dass der Prozessor: Schlüsselwörter aus einem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne erfasst; ein ereignisspezifisches Wörterbuch für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter erzeugt; über die Netzschnittstelle das ereignisspezifische Wörterbuch aus der ersten Zeitspanne wenigstens einer Videokamera zur Verfügung stellt, die Video auf der Grundlage mehrerer Faktoren aufnimmt; aktualisierte Schlüsselwörter erfasst, während sich das interessierende Ereignis in einer zweiten Zeitspanne entwickelt; das ereignisspezifische Wörterbuch mit den aktualisierten Schlüsselwörtern aktualisiert; und das aktualisierte ereignisspezifische Wörterbuch einer anderen Videokamera oder einem kommunikativ mit der anderen Videokamera gekoppelten Backendserver auf der Grundlage der mehreren Faktoren zur Verfügung stellt.
-
Bezugnehmend auf 1 veranschaulicht ein Netzdiagramm ein Videotaggingsystem 10 in einer exemplarischen Ausführungsform. Spezifisch umfasst das Videotaggingsystem 10 ein CAD-System 12, ein Videoaufnahmesystem 14, ein Netzwerk 16 und ein drahtloses Netzwerk 18. Das CAD-System 12 ist kommunikativ mit dem Videoaufnahmesystem 14 über das Netzwerk 16, das drahtlose Netzwerk 18 und/oder über hier nicht dargestellte andere Komponenten oder Netzwerke gekoppelt. Das CAD-System 12 ist so konfiguriert, dass es CAD-Ereignisberichte erzeugt. Wie im Vorliegenden beschrieben ist, können die CAD-Ereignisberichte Nachrichten mit Informationen enthalten wie zum Beispiel Orte, interessierende Personen, verallgemeinerte Subjektbeschreibung, Ereignisübersicht, Einsatzkräfte oder jegliche andere relevante Informationen, die das Ereignis betreffen. Die CAD-Ereignisberichte können auch aktualisiert werden, während sich zugehörige Ereignisse entwickeln. Spezifisch kann das CAD-System 12 Aussendeeinrichtungen (Dispatchers), das heißt CAD-Operatoren oder Einsatzleitungen, enthalten, die kommunikativ mit Servern 20 gekoppelt sind, die sich schließlich über die Netzwerke 16, 18 mit dem Videoaufnahmesystem 14 verbinden.
-
Das Videoaufnahmesystem 14 umfasst mehrere Kameras und zugehörige Verarbeitungskomponenten zum Aufnehmen von Echtzeitvideo innerhalb eines geografischen Bereichs. Die Kameras können mobile digitale Videorekorder umfassen. Auch können die Kameras auf ersten Einsatzkräften oder auf Fahrzeugen von ersten Einsatzkräften angeordnet sein. Ferner können die Kameras Überwachungskameras sein, die innerhalb des geografischen Bereichs angeordnet sind, wie zum Beispiel auf Straßenleuchten, auf Schilderpfählen auf und/oder in Gebäuden usw. Jede Kamera ist so konfiguriert, dass sie Video und optional Audio aufnimmt und die Verarbeitungskomponenten sind so konfiguriert, dass sie das Video wie im Vorliegenden beschrieben wird, verarbeiten. Spezifisch können die Verarbeitungskomponenten einschließen, dass Video mit Schlüsselwörtern aus einem ereignisspezifischen Wörterbuch aus dem CAD-System 12 versehen wird, wodurch die Schlüsselwörter mit aufgenommenen Videometadaten verknüpft werden. Ferner können die Verarbeitungskomponenten so konfiguriert werden, dass sie aufgenommenes Echtzeit- oder Nahe-Echtzeit-Video und/oder -audio durchsuchen und dabei nach Einträgen in dem ereignisspezifischen Wörterbuch suchen sowie Bedienstete benachrichtigen, sobald etwas gefunden wird.
-
Das CAD-System 12 kann eine Folge von Softwarepaketen umfassen, die dazu verwendet werden, um Rufe der öffentlichen Sicherheit nach Dienst, Aussendung einzuleiten und den Status der Außeneinsatzkräfte aufrechtzuerhalten. Das CAD-System 12 kann allgemein von Notrufsendestellen, Rufnehmern und 911-Betreibern in zentralisierten Rufzentren der öffentlichen Sicherheit verwendet werden sowie von Bediensteten im Außeneinsatz, die mobile Datenendgeräte (Mobile Data Terminals, MDTs) oder mobile Datencomputer (MDCs) verwenden. Das CAD-System 12 kann mehrere funktionelle Softwaremodule umfassen, die auf Servern 20 ausgeführt werden, die Dienste auf verschiedenen Ebenen in einer Leitstelle und auf dem Gebiet der öffentlichen Sicherheit zur Verfügung stellen. Diese funktionellen Module können die Rufeingabe, den Rufversand, die Rufstatusaufrechterhaltung, Ereignisnotizen, den Status und die Verfolgung von Einheiten im Außeneinsatz, sowie die Rufauflösung und -disponierung umfassen. Das CAD-System 12 kann auch Schnittstellen umfassen, die es der Software erlauben, Leitstellen, Rufnehmern und Bediensteten im Außeneinsatz Dienste zur Verfügung zu stellen bezüglich der Steuerung und Verwendung von analoger Funk- und Fernsprechausrüstung sowie Logger-Rekorder-Funktionen.
-
Die eintreffenden CAD-Berichte werden von den Servern 20 an ausgesandte Personen im Außeneinsatz gesendet. Die ausgesandten Personen können zum Beispiel Bedienstete der öffentlichen Sicherheit oder ähnliche umfassen. Die Ausgesandten können eine mobile Vorrichtung haben, die verwendet wird, um die eintreffenden CAD-Berichte anzuzeigen und/oder abzuspielen. Die mobile Vorrichtung kann auch für mehrere zusätzliche Zwecke verwendet werden, zum Beispiel Daten speichern und lesen, in den Netzwerken 16, 18 kommunizieren usw. Die mobilen Vorrichtungen können MDTs, MDCs, Smartphones, Tablets, Zwei-Wege-Funkgeräte usw. umfassen. Die eintreffenden CAD-Berichte können von der Leitstelle und/oder den ausgesandten Personen aktualisiert werden, während sich das zugehörige Ereignis entwickelt.
-
Ein exemplarischer eintreffender CAD-Bericht kann zum Beispiel wie folgt sein:
ORT: | 1234 Main Street |
BERICHTENDE PERSON: | John Doe, 555–5555, 4567 Main St. |
ZEITSTEMPEL: | 4:01:03 EDT, 8/24 |
EREIGNIS: | Bewaffneter Raub (stattfindend) |
ZUSAMMENFASSUNG: | „Anrufer berichtet Quick-Mart-Laden wird bedroht/Anrufer |
sagt, dass Verdächtiger in einer weißen zweitürigen Limousine Richtung Westen flüchtet.” |
-
Der oben stehende eintreffende CAD-Bericht kann über die Server
20 an mehrere Personen im Außeneinsatz, zum Beispiel Polizisten, gesendet werden. Anschließend können Polizisten dem CAD-Ereignisbericht wie folgt als Tag hinzugefügt werden oder in ihm aufgenommen werden:
ORT: | 1234 Main Street |
BERICHTENDE PERSON: | John Doe, 555–5555, 4567 Main Street |
ZEITSTEMPEL: | 4:02:33 EDT, 8/24 |
EREIGNIS: | Bewaffneter Raub (stattfindend) |
ZUSAMMENFASSUNG: | „Anrufer berichtet Quick-Mart-Laden wird bedroht/Anrufer |
sagt, dass Verdächtiger in einer weißen zweitürigen Limousine Richtung Westen flüchtet.” |
EINHEITEN:” | 746 (vor Ort), 749 (auf dem Weg) |
-
In dem Text oben umfasst der CAD-Ereignisbericht Einheiten, nämlich die Einheiten 746, 749, die als reagierende Einheiten/Einsatzkräfte gekennzeichnet sind. Diese Einheiten könnten zusätzliche Details hinzufügen, während sich das Ereignis entwickelt, wie zum Beispiel:
ORT: | 1234 Main Street |
BERICHTENDE PERSON: | John Doe, 555–5555, 4567 Main Street |
ZEITSTEMPEL: | 4:04:23 EDT, 8/24 |
EREIGNIS: | Bewaffneter Raub (stattfindend) |
ZUSAMMENFASSUNG: | „Anrufer berichtet Quick-Mart-Laden wird bedroht/Anrufer |
sagt, dass Verdächtiger in einer weißen zweitürigen Limousine Richtung Westen flüchtet. Einheit 746 verfolgt die weiße zweitürige Limousine, der Kurs nach Norden nimmt auf den South Boulevard/verdächtiger Fahrer trägt eine rote Jacke und eine Brille.” |
EINHEITEN: | 746 (Verfolgung), 749 (auf dem Weg) |
-
Wie man in dem oben erwähnten sich entwickelnden CAD-Ereignisbericht sehen kann, sind da geografische Daten (zum Beispiel 1234 Main Street, Richtung Westen flüchtend, Kurs nach Norden auf South Boulevard), Zeitstempel-Informationen und bedeutsame Schlüsselwörter (zum Beispiel weiße zweitürige Limousine, rote Jacke, Brille usw.).
-
In verschiedenen exemplarischen Ausführungsformen ist das CAD-System 12 so konfiguriert, dass es Schlüsselwörter aus dem CAD-Ereignisbericht extrahiert und damit ein kleines zweckgerichtetes ereignisspezifisches Wörterbuch erzeugt, auf dessen Grundlage eine Videosuche durchgeführt werden soll, und dass es Aufnahmevideo mit Tags versieht. Zum Beispiel kann in dem oben erwähnten sich entwickelnden CAD-Ereignisbericht das ereignisspezifische Wörterbuch weiße zweitürige Limousine, rote Jacke, Brille sowie verschiedene geografische Beschreibungen, nämlich 1234 Main Street, nach Westen flüchtend, Kurs Norden auf South Boulevard, enthalten. Man bemerke, dass zu erwarten ist, dass das ereignisspezifische Wörterbuch für jedes Ereignis anders sein wird. Ein reduziertes ereignisspezifisches Wörterbuch erhöht die Tagginggenauigkeit und verringert die Taggingverarbeitungszeit. Darüber hinaus macht das reduzierte ereignisspezifische Wörterbuch Videoanalysen stromlinienförmig und optimiert sie. Des Weiteren entwickelt sich das ereignisspezifische Wörterbuch kontinuierlich fort, während sich das interessierende Ereignis abspielt, das heißt, eine Vorgehensweise mit mehreren Durchgängen, während der CAD-Ereignisbericht aktualisiert wird.
-
Des Weiteren wird das ereignisspezifische Wörterbuch an verschiedene Komponenten in dem Videoaufnahmesystem 14 auf der Grundlage der Relevanz der Komponenten für das Ereignis verteilt. Zum Beispiel könnte das Wörterbuch einer Kamera zur Verfügung gestellt werden, die mit den reagierenden Bediensteten oder mit in der Nähe befindlichen Bediensteten verknüpft ist, und allen Kameras, die sich in der geografischen Umgebung befinden, zum Beispiel Straßenleuchtenkameras, Überwachungskameras usw. Zusätzlich könnte das Wörterbuch Kameras und ähnlichen in dem Videoaufnahmesystem 14 auf der Grundlage anderer Metriken zur Verfügung gestellt werden, wie zum Beispiel Kameras, die von dem interessierenden Ereignis weiter entfernt sind, sich aber entlang wahrscheinlicher Strecken für den flüchtenden Verdächtigen befinden, alle Kameras in einem bestimmten geografischen Gebiet, usw. Zum Beispiel könnte das Wörterbuch verschiedenen Kameras in einem geografischen Gebiet mit einem ständig zunehmenden Radius in Abhängigkeit von der Zeit, wahrscheinlicher Geschwindigkeit eines Verdächtigen oder Fahrzeugs, usw. zur Verfügung gestellt werden. Das Videotaggingsystem 10 kann Algorithmen verwenden, um sicherzustellen, dass das Wörterbuch jedem für das Ereignis relevanten Videoaufnahmesystem 14 zur Verfügung gestellt wird.
-
Nimmt man den oben erwähnten sich entwickelnden CAD-Ereignisbericht als Beispiel, so wurde das Wörterbuch in einem ersten Punkt, Zeitstempel 4:01:03 EDT, 8/24, Quick-Mart-Laden, weiße zweitürige Limousine, usw. enthalten und dieses Wörterbuch würde Kameras in der näheren Umgebung des Ortes, 1234 Main Street, zur Verfügung gestellt werden. In einem zweiten Punkt, Zeitstempel 4:02:33 EDT, 8/24, bleibt das Wörterbuch unverändert, aber möglicherweise empfangen zusätzliche Kameras das aktualisierte Wörterbuch, nämlich Kameras, die mit den Einheiten 746 und 749 verknüpft sind. In einem dritten Punkt, Zeitstempel 4:04:23 EDT, 8/24, kann das Wörterbuch aktualisiert werden, so dass es von da an „verdächtiger Fahrer trägt eine rote Jacke und eine Brille” usw. enthält, und das Wörterbuch kann weiter zusätzlichen Kameras zur Verfügung gestellt werden, zum Beispiel Kameras in einer nördlichen Richtung auf dem South Boulevard. Somit enthält das Videotaggingsystem 10 ein sich entwickelndes, dynamisch aktualisiertes ereignisspezifisches Wörterbuch, welches von dem CAD-System 12 verwaltet wird und im Laufe der Zeit geografisch relevanten Kameras in dem Videoaufnahmesystem 14 zur Verfügung gestellt wird. Des Weiteren kann das dynamisch aktualisierte ereignisspezifische Wörterbuch auch auf älteres Video angewandt werden, um darauf gestützte Analysen zu verbessern. Das heißt, vorher aufgenommenem Video von geografisch relevanten Kameras kann das aktualisierte ereignisspezifische Wörterbuch zur Verfügung gestellt werden, um seine Tags zu verwenden.
-
Das Videoaufnahmesystem 14 kann das ereignisspezifische Wörterbuch zur effizienten Videosegmentsuche, Identifizierung, Videoanalyse, Priorisierung und gezielten gemeinsamen Videosegmentnutzung verwenden. Spezifisch können Kameras und zugehörige Verarbeitungsvorrichtungen in dem Videoaufnahmesystem 14 das ereignisspezifische Wörterbuch zum Taggen von aufgenommenem Video verwenden, was die Tagginggenauigkeit erhöht und die Taggingverarbeitungszeit im Kontext von Videoanalysen reduziert. Insgesamt führt dies zu Effizienz, Geschwindigkeit und Optimierung in dem Videoaufnahmesystem 14, wobei Videosegmente priorisiert werden und es erlaubt wird, Video auszufiltern, womit Speichererfordernisse in mobilen Einheiten für das Videoaufnahmesystem 14 reduziert werden. Es wird erwartet, dass diese Intelligenz in dem Videoaufnahmesystem 14 es nutzerfreundlicher machen wird, da es Videoinhalt eng mit Ereignisberichten koppelt und Video nach Hochladen mit den Tags aus dem Wörterbuch leichter durchsuchbar macht. Das System 10 kombiniert somit Videotagging mit einem beschränkten Wörterbuch von Schlüsselwörtern, die aus dynamisch aktualisierten Echtzeit-CAD-Ereignisberichten abgeleitet sind, wodurch eine effiziente Videosegmentsuche, Identifizierung, Videoanalyse, Priorisierung und gezielte gemeinsame Videosegmentnutzung ermöglicht wird.
-
Bezugnehmend auf 2 veranschaulicht in einer exemplarischen Ausführungsform ein Flussdiagramm, ein Videotaggingverfahren 30 beruhend auf einem Ereignisbericht und einem zugehörigen ereignisspezifischen Wörterbuch. In einer exemplarischen Ausführungsform kann das Videotaggingverfahren 30 durch das Videotaggingsystem 10 umgesetzt werden. Das Videotaggingverfahren 30 umfasst das Erfassen von Schlüsselwörtern aus dem Ereignisbericht betreffend ein interessierendes Ereignis in einer ersten Zeitspanne (Schritt 31). Das Videotaggingverfahren 30 umfasst weiter das Erzeugen eines ereignisspezifischen Wörterbuchs für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter (Schritt 32). Das Videotaggingverfahren 30 umfasst weiter das Bereitstellen des ereignisspezifischen Wörterbuchs aus der ersten Zeitspanne an wenigstens eine Videokamera, die Video auf der Grundlage von mehreren Faktoren aufnimmt, oder an einen Backendserver, der kommunikativ mit der wenigstens einen Videokamera gekoppelt ist (Schritt 33). Die mehreren Faktoren bestimmen, welche Kameras das ereignisspezifische Wörterbuch empfangen. Zum Beispiel können die Schlüsselwörter als ortsbezügliche Schlüsselwörter und ereignisbezügliche Schlüsselwörter kategorisiert werden. Die mehreren Faktoren können direkte Einsatzkräfte des interessierenden Ereignisses, nahegelegene Einsatzkräfte des interessierenden Ereignisses, ortberuhend auf den ortsbezüglichen Schlüsselwörtern und wahrscheinliche Strecken auf der Grundlage der ortsbezüglichen Schlüsselwörter umfassen. Das Videotaggingverfahren 30 kann das ereignisspezifische Wörterbuch der Kamera und/oder dem mit der Kamera verknüpften Backendserver zur Verfügung stellen.
-
Das Videotaggingverfahren 30 umfasst weiter das Verwenden der Schlüsselwörter aus dem Ereignisbericht durch die wenigstens eine Videokamera, um aufgenommenes Video mit Tags zu versehen (Schritt 34). Das Videotaggingverfahren 30 kann weiter das Erfassen aktualisierter Schlüsselwörter umfassen, während sich das interessierende Ereignis in einer zweiten Zeitspanne entwickelt (Schritt 35). Das Videotaggingverfahren 30 kann weiter das Aktualisieren des ereignisspezifischen Wörterbuchs mit den aktualisierten Schlüsselwörtern umfassen (Schritt 36). Das Videotaggingverfahren 30 kann ferner umfassen, dass das ereignisspezifische Wörterbuch nach dem Aktualisieren einer anderen Videokamera auf der Grundlage der mehreren Faktoren oder einem kommunikativ mit der anderen Videokamera gekoppelten Backendserver zur Verfügung gestellt wird (Schritt 37). In einer exemplarischen Ausführungsform werden die Schlüsselwörter von dem CAD-System 12 erfasst, wird das ereignisspezifische Wörterbuch von dem CAD-System 12 für das interessierende Ereignis erzeugt und wird das CAD-System 12 so konfiguriert, dass es das ereignisspezifische Wörterbuch und zugehörige Aktualisierungen an die wenigstens eine Videokamera in dem Videoaufnahmesystem 14 auf der Grundlage der mehreren Faktoren verteilt.
-
Bezugnehmend auf 3 zeigt ein Flussdiagramm in einer exemplarischen Ausführungsform ein Videotaggingverfahren 40 zum Aufnehmen von Video unter Verwendung des ereignisspezifischen Wörterbuchs. Das Videotaggingverfahren 40 kann mit dem Videotaggingverfahren 30 und/oder dem Videotaggingsystem 10 verwendet werden. Das Videotaggingverfahren 40 umfasst das Empfangen des ereignisspezifischen Wörterbuchs an der wenigstens einen Videokamera oder dem kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver (Schritt 41). Das Videotaggingverfahren 40 umfasst weiter das Aufnehmen von Video durch die wenigstens eine Videokamera (Schritt 42). Das Videotaggingverfahren 40 umfasst weiter das Hinzufügen von Schlüsselwörtern zu dem aufgenommenen Video aus dem ereignisspezifischen Wörterbuch (Schritt 43). Das Videotaggingverfahren 40 umfasst weiter das Hochladen des aufgenommenen Videos mit den als Tags hinzugefügten Schlüsselwörtern (Schritt 44). Das Videotaggingverfahren 40 kann ferner das Durchsuchen mehrerer Videos umfassen, wobei die als Tags hinzugefügten Schlüsselwörter als Suchbegriffe verwendet werden (Schritt 45). Das Videotaggingverfahren 40 kann ferner das Analysieren des aufgenommenen Videos zur Erkennung auf der Grundlage der Schlüsselwörter umfassen (Schritt 46). Das Videotaggingverfahren 40 kann ferner das Bereitstellen einer Meldung umfassen, wenn eines der Schlüsselwörter in einem Teil des aufgenommenen Videos erkannt wurde (Schritt 47). In einer exemplarischen Ausführungsform umfasst die wenigstens eine Videokamera einen mobilen digitalen Videorekorder (MDVR). In einer weiteren exemplarischen Ausführungsform umfasst die wenigstens eine Videokamera eine Überwachungskamera und einer der mehreren Faktoren umfasst Nähe zu dem interessierenden Ereignis.
-
Bezugnehmend auf 4 veranschaulicht ein Flussdiagramm in einer exemplarischen Ausführungsform ein Videoanalyseverfahren 50, welches Video auf der Grundlage eines Ereignisberichts und eines zugeordneten ereignisspezifischen Wörterbuchs mit Tags versieht. Das Videoanalyseverfahren 50 kann mit dem Videotaggingsystem 10 und/oder den Videotaggingverfahren 30, 40 verwendet werden. Das Videoanalyseverfahren 50 umfasst das Entwickeln eines ereignisspezifischen Wörterbuchs auf der Grundlage eines Ereignisberichts betreffend ein interessierendes Ereignis (Schritt 51). Das ereignisspezifische Wörterbuch umfasst eine zweckgerichtete Liste von Objekten und Personen, die auf dem Ereignisbericht basiert. Das heißt, ein Ziel des Videoanalyseverfahrens 50 ist es, ein Wörterbuch mit reduzierter Größe zur Echtzeitdurchsuchung oder späteren Durchsuchung von Video zur Verfügung zu stellen. Da das ereignisspezifische Wörterbuch ein Wörterbuch von reduzierter Größe ist, werden Videoanalysen verbessert und effizienter. Das heißt, die Videoanalysen wissen auf der Grundlage des Ereignisberichts, zum Beispiel eines CAD-Berichts, wonach gesucht werden soll. Dies macht die Videoanalysen bedeutend stromlinienförmiger gegenüber einem herkömmlichen Wörterbuch, das mehrere Größenordnungen mehr Ausdrucke enthalten kann.
-
Das Videoanalyseverfahren 50 umfasst das Empfangen des ereignisspezifischen Wörterbuchs an einer ersten Kamera oder an dem kommunikativ mit der ersten Kamera gekoppelten Backendserver auf der Grundlage geografischer Nähe zum interessierenden Ereignis (Schritt 52). Das heißt, das Videoanalyseverfahren 50 kann das ereignisspezifische Wörterbuch an relevante Kameras schieben, so dass das ereignisspezifische Wörterbuch mit Metadaten des Videos als Tags zur Echtzeitverarbeitung oder späteren Verarbeitung versehen werden kann. Das Videoanalyseverfahren 50 umfasst das Aufnehmen von Video durch die erste Kamera (Schritt 53). Das Videoanalyseverfahren 50 umfasst ferner das Versehen des aufgenommenen Videos durch die erste Kamera oder den Backendserver mit Schlüsselwörtern in dem ereignisspezifischen Wörterbuch als Tags (Schritt 54). Wie oben beschrieben wurde, kann hier das aufgenommene Video zugehörige Metadaten mit dem ereignisspezifischen Wörterbuch umfassen.
-
Das Videoanalyseverfahren 50 umfasst das Analysieren des aufgenommenen Videos unter Verwendung der Schlüsselwörter in dem ereignisspezifischen Wörterbuch, um Videoanalysen auf der Grundlage der zweckgerichteten Liste durchzuführen (Schritt 55). Hier führt das Videoanalyseverfahren 50 Videoanalysen mit dem Wörterbuch reduzierter Größe durch. Dieser analysierende Schritt kann von der ersten Kamera in Echtzeit oder nahe Echtzeit sowie von einem Server durchgeführt werden. Das Analysieren kann umfassen, dass das aufgenommene Video nach Begriffen in dem ereignisspezifischen Wörterbuch durchsucht wird. Dieses Durchsuchen kann entweder algorithmisch sein (zum Beispiel finde in dem aufgenommenen Video alles, was mit dem ereignisspezifischen Wörterbuch in Verbindung steht) oder auf Suchbegriffen beruhen (zum Beispiel finde einen spezifischen Begriff). Zum Beispiel nehme man an, dass das ereignisspezifische Wörterbuch einen Begriff für ein „rotes Auto” enthält. Dies verbessert die videoanalytische Funktionalität beträchtlich, da das Analysieren weiß, dass in dem aufgenommenen Video nach einem roten Auto Ausschau gehalten werden muss im Gegensatz zu einer Ausschau nach allen Autos, Lastwagen, Personen usw.
-
Das Videoanalyseverfahren 50 kann das Empfangen eines aktualisierten ereignisspezifischen Wörterbuchs an einer zweiten Kamera oder einem kommunikativ mit der zweiten Kamera gekoppelten Backendserver auf der Grundlage des aktualisierten ereignisspezifischen Wörterbuchs umfassen (Schritt 56). Hier kann sich das Videoanalyseverfahren 50 auf andere Kameras ausdehnen, während sich das Ereignis entwickelt. Das Videoanalyseverfahren 50 kann das Aufnehmen von Video durch die zweite Kamera umfassen (Schritt 57). Das Videoanalyseverfahren 50 kann das Hinzufügen von Schlüsselwörtern in dem aktualisierten ereignisspezifischen Wörterbuch als Tags zu dem aufgenommenen Video durch die zweite Kamera umfassen (Schritt 58). Ähnliche Videoanalysen können für das aufgenommene Video von der zweiten Kamera durchgeführt werden, wie im Vorliegenden bezüglich der ersten Kamera beschrieben ist.
-
Bezugnehmend auf 5 veranschaulicht in einer exemplarischen Ausführungsform ein Flussdiagramm ein Videoaufnahmeverfahren 60 zum Speichern und Durchsuchen von Video auf der Grundlage des Ereignisberichts und des zugeordneten ereignisspezifischen Wörterbuchs. Das Videoaufnahmeverfahren 60 kann mit dem Videotaggingsystem 10, dem Videoaufnahmeverfahren 50 und/oder den Videotaggingverfahren 30, 40 verwendet werden. Das Videoaufnahmeverfahren 60 umfasst das Hochladen des aufgenommenen Videos durch die erste Kamera (Schritt 61). Das Videoaufnahmeverfahren 60 umfasst weiter das Hochladen des aufgenommenen Videos durch die zweite Kamera (Schritt 62). Das Videoaufnahmeverfahren 60 umfasst weiter das Speichern des aufgenommenen Videos durch die erste Kamera mit den Schlüsselwörtern in dem ereignisspezifischen Wörterbuch als Tags (Schritt 63). Das Videoaufnahmeverfahren 60 umfasst weiter das Speichern des aufgenommenen Videos durch die zweite Kamera mit den Schlüsselwörtern in dem aktualisierten ereignisspezifischen Wörterbuch als Tags (Schritt 64). Das Videoaufnahmeverfahren 60 kann ferner das Durchsuchen von Video umfassen, welches das von der ersten Kamera aufgenommene Video und das von der zweiten Kamera aufgenommene Video umfasst, einschließlich von Suchbegriffen, welche die Schlüsselwörter in dem ereignisspezifischen Wörterbuch und die Schlüsselwörter in dem aktualisierten ereignisspezifischen Wörterbuch umfassen (Schritt 65). In einer exemplarischen Ausführungsform umfasst die erste Kamera eine Überwachungskamera in der Nähe des interessierenden Ereignisses auf der Grundlage des ereignisspezifischen Wörterbuchs und die zweite Kamera umfasst einen mobilen Datenrekorder, der mit einer Einsatzkraft auf der Grundlage des aktualisierten ereignisspezifischen Wörterbuchs verknüpft ist.
-
Bezugnehmend auf 6 in einer exemplarischen Ausführungsform veranschaulicht ein Blockdiagramm eine exemplarische Ausführung eines Servers 100 für das CAD-System 12. Der Server 100 kann ein digitaler Computer sein, der, was die Hardwarearchitektur betrifft, allgemein einen Prozessor 102, Ein/Ausgabe(Input/Output, I/O)-Schnittstellen 104, eine Netzschnittstelle 106, einen Datenspeicher 108 sowie Speicher 110 umfasst. Der Fachmann sollte erkennen, dass 6 den Server 100 in einer stark vereinfachten Weise abbildet, und eine praktische Ausführungsform kann zusätzliche Komponenten und geeignet konfigurierte Verarbeitungslogik umfassen, um bekannte oder herkömmliche Funktionsmerkmale zu unterstützen, die im Vorliegenden nicht im Detail beschrieben sind. Die Komponenten (102, 104, 106, 108 und 110) sind kommunikativ über eine lokale Schnittstelle 112 gekoppelt. Die lokale Schnittstelle 112 kann zum Beispiel ein oder mehrere Busse oder andere drahtgebundene oder drahtlose Verbindungen sein, wie dem Fachmann bekannt ist, sie ist jedoch nicht darauf beschränkt. Die lokale Schnittstelle 112 kann zusätzliche Elemente aufweisen, die zum Zwecke der Einfachheit weggelassen wurden, zum Beispiel Steuereinrichtungen, Zwischenspeicher (Cache-Speicher), Treiber, Repeater und Empfänger unter vielen anderen, um Nachrichten zu ermöglichen. Ferner kann die lokale Schnittstelle 112 Adress-, Steuer- und/oder Datenverbindungen umfassen, um geeignete Nachrichten zwischen den oben erwähnten Komponenten zu ermöglichen.
-
Der Prozessor 102 ist eine Handwarevorrichtung zum Ausführen von Softwarebefehlen. Der Prozessor 102 kann jeder eigens gefertigte oder kommerziell verfügbare Prozessor sein, eine Central-Processing-Unit (CPU), ein Hilfsprozessor unter mehreren dem Server 100 zugeordneten Prozessoren, ein halbleiterbasierter Mikroprozessor (in der Form eines Mikrochips oder Chipsatzes) oder allgemein eine beliebige Vorrichtung zum Ausführen von Softwarebefehlen. Wenn der Server 100 in Betrieb ist, ist der Prozessor 102 so konfiguriert, dass er im Speicher 110 gespeicherte Software ausführt, Daten an den und von dem Speicher 110 kommuniziert und allgemein Operationen des Senners 100 gemäß den Softwarebefehlen steuert. Die I/O-Schnittstellen 104 können verwendet werden, um Nutzereingaben von der einen oder den mehreren Vorrichtungen oder Komponenten zu empfangen und/oder zur Bereitstellung von Systemausgaben an sie. Nutzereingaben können zum Beispiel über eine Tastatur, ein Touchpad und/oder eine Maus erfolgen. Systemausgaben können über eine Bildschirmvorrichtung und einen Drucker (nicht gezeigt) erfolgen. I/O-Schnittstellen 104 können zum Beispiel Folgendes umfassen: einen seriellen Ausgang, einen parallelen Ausgang, eine Small-Computer-System-Interface (SCSI), eine serielle ATA (SATA), einen Faserkanal, Infiniband, iSCSI, eine PCI-Expressschnittstelle (PCI-x), eine Infrarot(IR)-Schnittstelle, eine Radiofrequenz(RF)-Schnittstelle und/oder eine Universal-Serial-Bus(USB)-Schnittstelle.
-
Die Netzschnittstelle 106 kann verwendet werden, um den Senner 100 in die Lage zu versetzen, in einem Netzwerk zu kommunizieren, zum Beispiel mit dem Videoaufnahmesystem 14 über die Netzwerke 16, 18 zu kommunizieren. Die Netzschnittstelle 106 kann zum Beispiel eine Ethernetkarte oder einen Ethernetadapter (zum Beispiel 10BaseT, Fast Ethernet, Gigabit Ethernet, 10GbE) oder eine Wireless-Local-Area-Network(WLAN)-Karte oder einen WLAN-Adapter (zum Beispiel 802.11 a/b/g/n) umfassen. Die Netzschnittstelle 106 kann Adress-, Steuer-, und/oder Datenverbindungen umfassen, um geeignete Nachrichten in dem Netzwerk zu ermöglichen. Ein Datenspeicher 108 kann verwendet werden, um Daten zu speichern, wie zum Beispiel aufgenommenes Video, welches mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist. Der Datenspeicher 108 kann beliebige Arten flüchtiger Speicherelemente (zum Beispiel Direktzugriffsspeicher (Random-Access-Memory, RAM, wie zum Beispiel DRAM, SRAM, SDRAM und Ähnliches)), nichtflüchtige Speicherelemente (zum Beispiel ROM, Festplatte, Band, CDROM und Ähnliches) sowie Kombinationen daraus umfassen. Darüber hinaus kann der Datenspeicher 108 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen. In einem Beispiel kann der Datenspeicher 108 innerhalb des Servers 100 angeordnet sein, zum Beispiel als eine interne mit der lokalen Schnittstelle 112 verbundene Festplatte in dem Server 100. Außerdem kann in einer anderen Ausführungsform der Datenspeicher 108 außerhalb des Servers 100 angeordnet sein, zum Beispiel als eine externe Festplatte, die mit den I/O-Schnittstellen 104 verbunden ist (zum Beispiel SCSI oder USB-Verbindung). In einer weiteren Ausführungsform kann der Datenspeicher 108 mit dem Server 100 über ein Netzwerk verbunden sein, zum Beispiel über einen netzwerkverbundenen Archivserver.
-
Der Speicher 110 kann jede Art von flüchtigen Speicherelementen (zum Beispiel Direktzugriffsspeicher (RAM, zum Beispiel DRAM, SRAM, SDRAM usw.)), nichtflüchtigen Speicherelementen (zum Beispiel ROM, Festplatte, Band, CDROM usw.) und Kombinationen daraus umfassen. Darüber hinaus kann der Speicher 110 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen. Man beachte, dass der Speicher 110 eine verteilte Architektur haben kann, wo verschiedene Komponenten voneinander entfernt angeordnet sind, wobei jedoch der Prozessor 102 auf sie zugreifen kann. Die Software in dem Speicher 110 kann ein oder mehrere Softwareprogramme umfassen, von denen jedes eine geordnete Liste von ausführbaren Befehlen zur Umsetzung logischer Funktionen umfasst. Die Software in dem Speicher 110 umfasst ein geeignetes Betriebssystem (Operating System, O/S) 114 und ein oder mehrere Programme 116. Das Betriebssystem 114 steuert im Wesentlichen die Ausführung anderer Computerprogramme, zum Beispiel die einen oder mehreren Programme 116, und stellt Terminierung, Eingabe/Ausgabe-Steuerung, Datei- und Datenverwaltung, Speicherverwaltung und Kommunikationssteuerung und verwandte Dienste zur Verfügung. Das eine oder die mehreren Programme 116 können so konfiguriert sein, dass sie die verschiedenen hier beschriebenen Prozesse, Algorithmen, Verfahren, Techniken usw. umsetzen.
-
In einer exemplarischen Ausführungsform kann der Server 100 ein CAD-System sein und der Speicher 110 kann Befehle enthalten, die, wenn sie ausgeführt werden, bewirken, dass der Prozessor Schlüsselwörter aus einem Ereignisbericht erfasst, der ein interessierendes Ereignis in einer ersten Zeitspanne betrifft, ein ereignisspezifisches Wörterbuch für das interessierende Ereignis auf der Grundlage der erfassten Schlüsselwörter erzeugt, über die Netzschnittstelle 106 das ereignisspezifische Wörterbuch aus der ersten Zeitspanne wenigstens einer Kamera, die Video aufnimmt, oder einem kommunikativ mit der wenigstens einen Videokamera gekoppelten Backendserver auf der Grundlage mehrerer Faktoren zur Verfügung stellt, das ereignisspezifische Wörterbuch mit den aktualisierten Schlüsselwörtern aktualisiert und das aktualisierte ereignisspezifische Wörterbuch einer anderen Videokamera oder einem kommunikativ mit der anderen Videokamera gekoppelten Backendserver auf der Grundlage der mehreren Faktoren zur Verfügung stellt. Die Befehle können, wenn sie ausgeführt werden, weiter bewirken, dass der Prozessor eine Meldung von einer unter mehreren Videokameras empfängt, die besagt, dass in aufgenommenem Video ein Schlüsselwort aus dem ereignisspezifischen Wörterbuch oder dem aktualisierten ereignisspezifischen Wörterbuch detektiert wurde. Die Befehle können, wenn sie ausgeführt werden, weiter bewirken, dass der Prozessor von der wenigstens einen Videokamera aufgenommenes Video empfängt, wobei das aufgenommene Video mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist, und er Videoanalysen an dem aufgenommenen Video unter Verwendung des damit verknüpften ereignisspezifischen Wörterbuch durchführt.
-
Bezugnehmend auf 7, in einer exemplarischen Ausführungsform, ein Blockdiagramm einer exemplarischen Implementierung einer Kamera 200, die eine Komponente in dem Videoaufnahmesystem 14 ist. Die Kamera 200 kann eine digitale Vorrichtung sein, die hinsichtlich der Hardwarearchitektur im Allgemeinen einen Prozessor 202, eine Videokamera 204, eine Netzschnittstelle 206, einen Datenspeicher 208 und Speicher 210 umfasst. Der Fachmann sollte erkennen, dass 7 die Kamera 200 in einer stark vereinfachten Weise abbildet, und eine praktische Ausführungsform kann zusätzliche Komponenten und geeignete konfigurierte Verarbeitungslogik umfassen, um bekannte oder herkömmliche Funktionsmerkmale zu unterstützen, die hier nicht näher beschrieben sind. Die Komponenten (202, 204, 206, 208 und 210) sind kommunikativ über eine lokale Schnittstelle 212 gekoppelt. Die lokale Schnittstelle 212 kann zum Beispiel, ohne darauf beschränkt zu sein, ein oder mehrere Busse oder andere drahtgebundene oder drahtlose Verbindungen sein, wie dem Fachmann bekannt ist. Die lokale Schnittstelle 212 kann zusätzliche Elemente aufweisen, die zum Zwecke der Einfachheit weggelassen sind, zum Beispiel Steuereinrichtungen, Zwischenspeicher (Cachespeicher), Treiber, Repeater und Empfänger unter vielen anderen, um Nachrichten zu ermöglichen. Die lokale Schnittstelle 212 kann weiter Adress-, Steuer-, und/oder Datenverbindungen umfassen, um geeignete Nachrichten zwischen den oben erwähnten Komponenten zu ermöglichen.
-
Der Prozessor 202 ist eine Hardwareeinrichtung zum Ausführen von Softwarebefehlen. Der Prozessor 202 kann ein beliebiger eigens gefertigter oder kommerziell verfügbarer Prozessor sein, eine Central-Processing-Unit (CPU), eine Hilfsprozessor unter mehreren mit der Kamera 200 verknüpften Prozessoren, ein halbleiterbasierter Mikroprozessor (in der Form eines Mikrochips oder Chipsets) oder allgemein jede Einrichtung zum Ausführen von Softwarebefehlen. Wenn die Kamera 200 in Betrieb ist, ist der Prozessor 202 so konfiguriert, dass er im Speicher 210 gespeicherte Software ausführt, Daten an den und von dem Speicher 210 vermittelt und allgemein Operationen der Kamera 200 gemäß den Softwarebefehlen steuert. In einer exemplarischen Ausführungsform kann der Prozessor 202 einen mobilen optimierten Prozessor umfassen, zum Beispiel optimiert für Energieverbrauch und mobile Anwendungen. Die Videokamera 204 ist so konfiguriert, dass sie Video und/oder Audio aufnimmt. Dies kann mehrere Kameras einschließen. Ferner kann die Videokamera 204 fest oder beweglich (zum Beispiel Drehung, Neigung, Zoom usw.) sein. Die Videokamera 204 kann Video in einem digitalen Format in Übereinstimmung mit verschiedenen bekannten Techniken aufnehmen und das aufgenommene Video in dem Datenspeicher 208 speichern und/oder das aufgenommene Video über die Netzschnittstelle 206 hochladen.
-
Die Netzschnittstelle 206 kann verwendet werden, um es der Kamera 200 zu ermöglichen, in einem Netzwerk zu kommunizieren, zum Beispiel um mit dem CAD-System 12 über die Netzwerke 16, 18 zu kommunizieren. Die Netzschnittstelle 206 kann zum Beispiel eine Ethernetkarte oder einen Ethernetadapter (zum Beispiel 10BaseT, Fast Ethernet, Gigabit Ethernet, 10GbE) oder eine Wireless-Local-Area-Network(WLAN)-Karte oder einen WLAN-Adapter (zum Beispiel 802.11a/b/g/n) umfassen. Die Netzschnittstelle 206 kann Adress-, Steuer-, und/oder Datenverbindungen umfassen, um geeignete Nachrichten in dem Netzwerk zu ermöglichen. Ein Datenspeicher 208 kann verwendet werden, um Daten zu speichern, wie zum Beispiel aufgenommenes Video, das mit Schlüsselwörtern aus dem ereignisspezifischen Wörterbuch versehen ist. Der Datenspeicher 208 kann beliebige Arten flüchtiger Speicherelemente (zum Beispiel Direktzugriffsspeicher (RAM, zum Beispiel DRAM, SRAM, SDRAM und ähnliches)), nichtflüchtige Speicherelemente (zum Beispiel ROM, Festplatte, Band, CDROM und ähnliches) und Kombinationen daraus umfassen. Darüber hinaus kann der Datenspeicher 208 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen.
-
Der Speicher 210 kann jede Art flüchtiger Speicherelemente (zum Beispiel Direktzugriffsspeicher (RAM, zum Beispiel DRAM, SRAM, SDRAM usw.)), nichtflüchtige Speicherelemente (zum Beispiel ROM, Festplatte usw.) und Kombinationen daraus umfassen. Darüber hinaus kann der Speicher 210 elektronische, magnetische, optische und/oder andere Arten von Speichermedien umfassen. Man beachte, dass der Speicher 210 eine verteilte Architektur haben kann, wo verschiedene Komponenten voneinander entfernt angeordnet sind, wobei jedoch der Prozessor 202 auf sie zugreifen kann. Die Software im Speicher 210 kann ein oder mehrere Softwareprogramme umfassen, von denen jedes eine geordnete Liste ausführbarer Befehle zum Umsetzen logischer Funktionen enthält. In dem Beispiel von 7 umfasst die Software in dem Speicher 210 ein geeignetes Betriebssystem (O(S) 214 sowie Programme 214. Das Betriebssystem 214 steuert im Wesentlichen die Ausführung anderer Computerprogramme und stellt Terminierung, Eingabe/Ausgabe-Steuerung, Datei- und Datenverwaltung, Speicherverwaltung sowie Kommunikationssteuerung und verwandte Dienste zur Verfügung. Die Programme 214 können verschiedene Anwendungen, Ergänzungen usw. umfassen, die so konfiguriert sind, dass sie Endnutzerfunktionalität mit der Kamera 200 zur Verfügung stellen.
-
In der vorangehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Der Fachmann erkennt jedoch, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne den in den nachfolgenden Ansprüchen festgelegten Umfang der Erfindung zu verlassen. Die Beschreibung und die Zeichnungen sind deshalb nicht als einschränkend sondern vielmehr als erläuternd zu verstehen und es ist beabsichtigt, dass alle solche Modifizierungen innerhalb des Umfangs der vorliegenden Lehre liegen.
-
Die Nutzen, Vorteile, Problemlösungen und jedes Element, welches bewirken kann, dass ein Nutzen, ein Vorteil oder eine Lösung entsteht oder deutlicher wird, sind nicht als kritische, notwendige oder wesentliche Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche zu verstehen. Die Erfindung ist allein durch die angehängten Ansprüche definiert, einschließlich etwaiger während der Anhängigkeit dieser Anmeldung vorgenommener Änderungen und aller Äquivalente jener Ansprüche in der Form, in der sie herausgegeben wurden.
-
Außerdem können in diesem Dokument Relationsbegriffe wie zum Beispiel erster und zweiter, oben und unten und Ähnliche verwendet werden, um nur eine Einheit oder Aktion von einer anderen Einheit oder Aktion zu unterscheiden, ohne notwendigerweise eine solche Relation oder Ordnung zwischen solchen Einheiten oder Aktionen vorauszusetzen oder zu implizieren. Die Begriffe „umfasst”, „umfassend”, „besitzt”, „besitzend”, „schließt ein”, „einschließlich”, „enthält”, „enthaltend” oder jede andere Variante davon sind so zu verstehen, dass sie eine nicht exklusive Inklusion abdecken, so dass ein Verfahren, eine Methode, ein Gegenstand oder eine Vorrichtung, die eine Liste von Elementen umfasst, hat, einschließt, enthält, nicht nur diese Elemente, sondern weitere Elemente einschließen kann, die nicht explizit aufgeführt sind oder einem solchen Verfahren, Methode, Gegenstand oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ...ein”, „hat ...ein”, „schließt ein ...ein”, „enthält ...ein” vorangestellt ist, schließt ohne zusätzliche Einschränkungen die Existenz weiterer identischer Elemente in dem Verfahren, der Methode, dem Gegenstand oder der Vorrichtung, der/die/das Element umfasst, hat, einschließt, enthält nicht aus. Die Begriffe „ein” und „eine” sind als eins oder mehr definiert, außer wenn im Vorliegenden explizit etwas Anderes gesagt wird. Die Ausdrücke „substantiell”, „im Wesentlichen”, „ungefähr”, „etwa” oder jede andere Variante davon sind definiert als nahe gemäß dem Verständnis des Fachmanns, und in einer nichteinschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb 10%, in einer anderen Ausführungsform als innerhalb 5%, in einer anderen Ausführungsform als innerhalb 1% und in einer weiteren Ausführungsform als innerhalb 0,5%. Der Begriff „gekoppelt”, wie er hier verwendet wird, ist definiert als verbunden, wenn auch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die auf eine bestimmte Weise „konfiguriert” ist, ist in wenigstens dieser Weise konfiguriert, kann aber auch auf Weisen konfiguriert sein, die nicht angegeben sind.
-
Man wird erkennen, dass manche Ausführungsformen einen oder mehrere allgemeine oder spezialisierte Prozessoren (oder „Verarbeitungseinrichtungen”) wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, besonders eingerichtete Prozessoren und feldprogrammierbare Gatteranordnungen (Field Programmable Gate Arrays, FPGAs) und individuelle gespeicherte Programmbefehle (einschließlich sowohl Software als auch Firmware), welche den einen oder die mehreren Prozessoren derart steuern, dass sie zusammen mit bestimmten nicht Prozessorschaltungen einige, die meisten oder alle der Funktionen des hier beschriebenen Verfahrens und/oder Vorrichtung umsetzen. Alternativ könnten manche oder alle Funktionen durch einen Zustandsapparat implementiert werden, der keine gespeicherten Programmbefehle hat, oder in einem oder in mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder manche Kombinationen bestimmter Funktionen als individualisierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
-
Eine Ausführungsform kann darüberhinaus als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (zum Beispiel einen mit Prozessor) so zu programmieren, dass er ein Verfahren wie hier beschrieben und beansprucht durchführt. Beispiele solcher computerlesbarer Speichermedien schließen folgendes ein, sind aber nicht darauf beschränkt: Eine Festspeicherplatte, ein CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, ein ROM (Read Only Memory), ein PROM (Programmable Read Only Memory), ein EPROM (Erasable Programmable Read Only Memory), ein EEPROM (Electrically Erasable Programmable Read Only Memory) und ein Flashspeicher. Ferner wird erwartet, dass der Fachmann ungeachtet möglicherweise signifikanten Aufwands und vieler Gestaltungsoptionen, die zum Beispiel durch die vorhandene Zeit, die gegenwärtige Technologie und wirtschaftliche Erwägungen motiviert sind, ohne weiteres imstande sein wird, solche Softwareanweisungen und Programme und integrierte Schaltungen mit einem Minimum von Versuchen zu erzeugen, wenn er sich von den hier offenbarten Konzepten und Prinzipien leiten lässt.
-
Die Zusammenfassung der Offenbarung soll es dem Leser ermöglichen, schnell die Natur der technischen Offenbarung zu erkennen. Sie wird mit dem Verständnis eingereicht, dass man sie nicht dazu verwenden wird, um den Umfang oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Außerdem kann man in der vorangehenden ausführlichen Beschreibung sehen, dass verschiedene Merkmale in verschiedenen Ausführungsformen in Gruppen zusammengefasst sind, zum Zwecke einer flüssigen Offenbarung. Diese Weise der Offenbarung darf nicht in dem Sinne ausgelegt werden, dass sie eine Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als in jedem Anspruch ausdrücklich angegeben sind. Wie die nachfolgenden Ansprüche erkennen lassen, liegen erfinderische Gegenstände vielmehr in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Die nachfolgenden Ansprüche werden somit hiermit in die ausführliche Beschreibung mit aufgenommen, wobei jeder Anspruch für sich selbst als ein separat beanspruchter Gegenstand steht.