DE102014213554A1 - Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren - Google Patents

Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren Download PDF

Info

Publication number
DE102014213554A1
DE102014213554A1 DE102014213554.0A DE102014213554A DE102014213554A1 DE 102014213554 A1 DE102014213554 A1 DE 102014213554A1 DE 102014213554 A DE102014213554 A DE 102014213554A DE 102014213554 A1 DE102014213554 A1 DE 102014213554A1
Authority
DE
Germany
Prior art keywords
target
tracked
tracking
person
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014213554.0A
Other languages
English (en)
Other versions
DE102014213554B4 (de
Inventor
c/o Panasonic Corporation Fujimatsu Takeshi
c/o Panasonic Corporation Hirasawa Sonoko
c/o Panasonic Corporation Yamamoto Hiroyuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of DE102014213554A1 publication Critical patent/DE102014213554A1/de
Application granted granted Critical
Publication of DE102014213554B4 publication Critical patent/DE102014213554B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Abstract

Eine Tracking-Unterstützungsvorrichtung, die enthält: eine Einstelleinheit für ein zu verfolgendes Ziel, die in Antwort auf eine Eingabeoperation ausgeführt von einer überwachenden Person auf einer der Anzeigeansichten zum Bezeichnen eines zu verfolgenden bewegten Objektes, das bezeichnete bewegte Objekt als ein zu verfolgendes Ziel einstellt, wobei die Anzeigeansichten erfasste Bilder anzeigen, die von jeweiligen Kameras aufgenommen und in einem Rekorder gespeichert sind; eine Kameraauswahleinheit, die basierend auf Nachverfolgungsinformation, die durch Verarbeitung der erfassten Bilder erhalten wird, jede der Kameras, von denen angenommen wird, dass sie ein Bild des bewegten Objektes, das als zu verfolgendes Ziel bezeichnet ist, aus den Kameras ausgenommen der Kamera auswählt, die der Anzeigeansicht entspricht, auf der das zu verfolgende Ziel bezeichnet wurde, aufgenommen haben; und eine Wiedergabeeinheit, die veranlasst, dass erfasste Bilder, die von jeder Kamera, die von der Kameraauswahleinheit ausgewählt wird, aufgenommen wurden, in einem entsprechenden der Anzeigeansichten angezeigt werden.

Description

  • TECHNISCHER BEREICH
  • Die vorliegende Erfindung bezieht sich auf eine Tracking-Unterstützungsvorrichtung, ein Tracking-Unterstützungssystem und ein Tracking-Unterstützungsverfahren zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das durch Anzeigen eines Bildschirmes, in dem mehrere Anzeigeansichten zum Anzeigen von erfassten Bildern angeordnet sind, die von jeweiligen Kameras aufgenommen und in einer Bildspeichervorrichtung gespeichert sind, auf einer Anzeigevorrichtung verfolgt werden soll.
  • HINTERGRUND DER ERFINDUNG
  • Einige der weitverbreitetsten Überwachungssysteme umfassen mehrere Kameras, die in einem überwachten Gebiet aufgestellt sind, und einen Monitor, der dazu geeignet ist, einen Überwachungsbildschirm anzuzeigen, in dem mehrere Anzeigeausschnitte zum Anzeigen eines erfassten Bildes angeordnet sind, das von den jeweiligen Kameras aufgenommen wird, sodass eine überwachende Person das überwachte Gebiet überwachen kann. In solch einem Überwachungssystem ist es durch das Speichern der erfassten Bilder, die von den Kameras aufgenommen werden, in einem Recorder möglich, die überwachende Person in die Lage zu versetzen zu überprüfen, nachdem eine verbotene Handlung, wie zum Beispiel ein Ladendiebstahl entdeckt wurde, welche Handlungen von der Person, die die verbotene Handlung verübt hat, in dem überwachten Gebiet ausgeführt wurden.
  • In einem Fall, in dem die überwachende Person eine Person verfolgt während sie, wie oben erwähnt, mehreren Anzeigeausschnitte auf dem Bildschirm betrachtet, wird von der überwachenden Person gefordert, den Anzeigeausschnitt, in dem die Person als nächstes erscheint (oder angezeigt wird), anhand der Bewegungsrichtung der zu überwachenden Person zu bestimmen, aber wenn es viel Zeit benötigt, den nächsten Anzeigeausschnitt zu bestimmen, dann könnte die überwachende Person die Sicht auf die zu überwachende Person verlieren. Aus diesem Grund ist eine Konfiguration zum Reduzieren der Belastung der überwachenden Person erforderlich, die es erlaubt, das Verfolgen einer Person reibungslos auszuführen.
  • Im Hinblick auf einen solchen Anspruch ist eine Technologie herkömmlicherweise bekannt, in der basierend auf Information, wie zum Beispiel einer Bewegungsrichtung der überwachten Person, die Kamera, die als nächstes das Bild der Person erfassen wird, ausgesucht wird und der Anzeigeausschnitt, der das erfasste Bild anzeigt, das von dieser Kamera aufgenommen ist, neben dem Anzeigeausschnitt, in dem die überwachte Person aktuell erscheint, angezeigt wird (siehe JP2005-012415A ). Es ist außerdem eine Technologie bekannt, in der ein Überwachungsbildschirm angezeigt wird, sodass der Überwachungsbildschirm ein Planbild enthält, das ein überwachtes Gebiet repräsentiert, auf dem Bilder, die die Kameras repräsentieren (Kameramarkierungen), und Anzeigeausschnitte zum Anzeigen der erfassten Bilder, die von den Kameras aufgenommen werden, angeordnet sind (siehe JP2010-268186A ).
  • Die Verarbeitung des Auswählens der Kamera, die das Bild der überwachten Person als nächstes erfasst, könnte, wie in der Technologie in JP2005-012415A offenbart, basierend auf Nachverfolgungsinformation ausgeführt werden, die durch eine Nachverfolgungsverarbeitungsvorrichtung erhalten wird, die ein oder mehrere bewegte Objekte nachverfolgt, die auf den erfassten Bildern, die von den Kameras aufgenommen werden, entdeckt werden. Wenn allerdings die Nachverfolgungsinformation einen Fehler enthält, könnte die überwachte Person bei dem Verfolgen verloren gehen. Deshalb ist eine Konfiguration erforderlich, die es der überwachenden Person erlaubt, wenn in der Nachverfolgungsinformation während einer Verarbeitung, in der die überwachende Person eine Person verfolgt, während sie einen Bildschirm betrachtet, ein Fehler gefunden wird, die Nachverfolgungsinformation zu korrigieren, ohne der überwachenden Person eine signifikante Belastung aufzubürden.
  • In Bezug auf einen solchen Anspruch ist eine Technologie bekannt, in der eine Nachverfolgungsvorrichtung zum Ausüben einer Nachverfolgungsverarbeitung konfiguriert ist, wobei ein „point of interest” (Punkt von Interesse), der auf ein bewegtes Objekt gesetzt wird, genutzt wird und, wenn das Verfolgen des „point of interest” schwierig wird, sich der „point of interest” in Übereinstimmung mit einer Korrekturanweisungseingabe eines Benutzers (überwachende Person) verändert, um dadurch die Nachverfolgungsverarbeitung fortzusetzen (siehe JP2007-272732A ).
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In der in JP2005-012415A offenbarten Technik könnte die Belastung der überwachenden Person reduziert werden, da die Kamera, die als Nächstes das Bild der zu überwachenden Person erfasst (nächste Kamera), vorhergesagt wird und das von dieser Kamera aufgenommene Bild angezeigt wird. Wenn sich allerdings eine andere Person zusätzlich zu der überwachten Person in dem erfassten Bild befindet, das von der Kamera aufgenommen wird, die aktuell das Bild der überwachten Person erfasst, dann könnte die Vorhersage der nächsten Kamera auf Basis der Bewegungsrichtung der anderen Person ausgeführt werden. In einem solchen Fall ist die Vorhersage der nächsten Kamera nicht korrekt und das könnte dazu führen, dass die überwachende Person den Blick auf die überwachte Person verliert.
  • Andererseits wird in der in JP2010-268186A offenbarten Technologie, die überwachende Person durch die positionelle Beziehung zwischen den Kameras auf dem Planbild in die Lage versetzt, zu einem gewissen Maße den Anzeigeausschnitt vorherzusagen, in dem die überwachte Person als Nächstes erscheinen wird, und deshalb kann die Belastung der überwachenden Person etwas reduziert werden. In einem Fall, in dem mehrere Anzeigeausschnitte in dem Bildschirm in Übereinstimmung mit der Zahl der installierten Kameras angeordnet sind, ist es allerdings schwierig, den Anzeigeausschnitt, in dem die überwachte Person aktuell erscheint, sofort und exakt in den mehreren Anzeigeausschnitten zu bestimmen und deshalb könnte die Belastung der überwachenden Person weiterhin groß sein, und es bleibt eine hohe Wahrscheinlichkeit, dass die überwachte Person beim Verfolgen verloren geht.
  • Ferner kann in der in JP2007-272732A offenbarten Technologie selbst unter Umständen, in denen es für die Nachverfolgungsvorrichtung schwierig ist, eine Nachverfolgungsverarbeitung auszuführen, mithilfe der überwachenden Person die Nachverfolgungsverarbeitung ohne Unterbrechung weitergeführt werden. Allerdings bezieht sich dieser Stand der Technik nur auf eine Intrakameranachverfolgungsverarbeitung, die basierend auf den erfassten Bildern ausgeführt wird, die von einer einzigen Kamera aufgenommen werden. In einer Interkameranachverfolgungsverarbeitung kann wiederum ein Fehler auftreten, der die Nachverfolgungsinformation, die bei der Intrakameranachverfolgungsverarbeitung von einer Kamera erhalten wird, mit der Nachverfolgungsinformation, die bei der Intrakameranachverfolgungsverarbeitung von einer anderen Kamera erhalten wird, verknüpft und es könnte, wenn tatsächlich ein Fehler in der Interkameranachverfolgungsverarbeitung auftritt, ein Wechsel der zu verfolgenden Person unvermeidlich auftreten.
  • Der Stand der Technik stellt keine effektiven Maßnahmen zur Verfügung, um mit einem Fehler, der in der Interkameranachverfolgungsverarbeitung auftreten könnte, umzugehen.
  • Die vorliegende Erfindung ist geeignet, um solche Probleme des Stands der Technik zu lösen, und ein Hauptziel der vorliegenden Erfindung ist es, eine Tracking-Unterstützungsvorrichtung, ein Tracking-Unterstützungssystem und ein Tracking-Unterstützungsverfahren bereitzustellen, die für einen Fall, in dem eine überwachende Person eine bestimmte Person verfolgt, während sie erfasste Bilder betrachtet, die von mehreren Kameras aufgenommen werden, eine Unterstützungsverarbeitung zum Reduzieren der Belastung der überwachenden Person angemessen ausführen können, wodurch die überwachende Person in die Lage versetzt wird, die Verfolgungsarbeit reibungslos auszuführen ohne den Blick auf die überwachte Person zu verlieren.
  • Um das obige Ziel zu erreichen, stellt ein erster Aspekt der vorliegenden Erfindung eine Tracking-Unterstützungsvorrichtung bereit zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das verfolgt werden soll, durch Anzeigen eines Bildschirmes, in dem eine Vielzahl von Anzeigeansichten zum Anzeigen von erfassten Bildern, die von jeweiligen Kameras aufgenommen und in einer Bildspeichereinheit gespeichert sind, in einem Planbild, das ein überwachtes Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras repräsentiert, angeordnet sind, auf einer Anzeigevorrichtung, mit: einer Einstelleinheit für ein zu verfolgendes Ziel, die veranlasst, dass die erfassten Bilder, die in der Bildspeichereinheit gespeichert sind, in den Anzeigeansichten in Übereinstimmung mit einer bestimmten Suchbedingung, wie zum Beispiel einer Erfassungszeit, dargestellt werden und in Antwort auf eine Eingabeoperation, die von der überwachenden Person in einer der Anzeigeansichten zum Bezeichnen eines zu verfolgenden bewegten Objektes ausgeführt wird, das bezeichnete bewegte Objekt als ein zu verfolgendes Ziel einstellt; einer Kameraauswahleinheit, die basierend auf Nachverfolgungsinformation, die durch Verarbeiten der erfassten Bilder erhalten wird, jede der Kameras, die vermutlich ein Bild des bewegten Objektes, das als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben, aus den Kameras mit Ausnahme von der Kamera auswählt, die der Anzeigeansicht, auf der das zu verfolgende Ziel bezeichnet wurde, zugeordnet ist; einer Bestätigungsbildpräsentationseinheit, die basierend auf der Nachverfolgungsinformation hinsichtlich des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, aus den erfassten Bildern, die von jeder von der Kameraauswahleinheit ausgewählten Kamera aufgenommen sind, ein Bestätigungsbild extrahiert, das ein erfasstes Bild ist, das von jeder von der Kameraauswahleinheit ausgewählten Kamera bei Beginn der Nachverfolgung des bewegten Objektes aufgenommen wurde, und von dem angenommen wird, dass es das bewegte Objekt enthält, und die Anzeigevorrichtung veranlasst, einen Bestätigungsbildschirm für ein zu verfolgendes Ziel, auf dem das oder die Bestätigungsbilder angeordnet sind, anzuzeigen; und einer Wiedergabeeinheit, die eine kontinuierliche Wiedergabe ausführt, in der die erfassten Bilder, aus denen das oder die Bestätigungsbilder von der Bestätigungsbildpräsentationseinheit extrahiert werden, sortiert nach dem Zeitverlauf in der Vielzahl der Anzeigeansichten angezeigt werden.
  • Entsprechend dieser Struktur ist ein Bildschirm auf der Anzeigevorrichtung angezeigt, sodass mehrere Anzeigeansichten zum Anzeigen erfasster Bilder, die von jeweiligen Kameras aufgenommen werden, auf dem Planbild, das das überwachte Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras repräsentiert, angeordnet sind und das bewegte Objekt, das als ein zu verfolgendes Ziel bezeichnet ist, in einer dieser Anzeigeansichten angezeigt ist, und aus diesem Grund kann die überwachende Person leicht überprüfen, welche Handlungen von dem bewegten Objekt, das als zu verfolgendes Ziel bezeichnet ist, in dem überwachten Gebiet ausgeführt wurden. Besonders dadurch, dass ein oder mehrere Bestätigungsbilder, von denen angenommen wird, dass sie das bewegte Objekt beinhalten, das als zu verfolgendes Ziel eingestellt ist, basierend auf der Nachverfolgungsinformation in den Anzeigeansichten angezeigt sind, kann die überwachende Person durch Nachprüfen, ob jedes Bestätigungsbild tatsächlich das bewegte Objekt enthält, das als zu verfolgendes Ziel bezeichnet ist, leicht bestimmen, ob die Nachverfolgungsinformation bezüglich des bewegten Objektes, das als zu verfolgendes Ziel bezeichnet ist, einen Fehler enthält.
  • In einem zweiten Aspekt der vorliegenden Erfindung enthält die Tracking-Unterstützungsvorrichtung ferner eine Bildschirmerzeugungseinheit mit: einer Kenntlichmachungseinheit für ein zu verfolgendes Ziel, die eine erste Hervorhebung zum Hervorheben eines bewegten Objektrahmens, der mit dem bewegten Objekt verbunden ist, das als das zu verfolgende Ziel eingestellt ist, bereitstellt; und eine Anzeigeansichtskenntlichmachungseinheit, die eine zweite Hervorhebung zum Hervorheben eines Anzeigerahmens bereitstellt, der mit der Anzeigeansicht verbunden ist, in der das bewegte Objekt, das als das zu verfolgende Ziel eingestellt ist, in einem Kontinuierlichewiedergabebildschirm, in dem die kontinuierliche Wiedergabe ausgeführt wird, aktuell erscheint.
  • Entsprechend dieser Struktur kann, wenn ein Benutzer (überwachende Person) das bewegte Objekt verfolgt, das als zu verfolgendes Ziel bezeichnet ist, während des Betrachtens der erfassten Bilder, die von mehreren Kameras aufgenommen und auf dem Bildschirm angezeigt werden, die überwachende Person mit einem Blick die Anzeigeansicht in den mehreren Anzeigeansichten finden, in der das bewegte Objekt, das als zu verfolgendes Ziel bezeichnet ist, erscheint, und deswegen kann die Belastung der überwachenden Person, die die Aufgabe des Verfolgens ausführt, reduziert werden und die Aufgabe des Verfolgens kann reibungslos ohne Verlust der Sicht auf das bewegte Objekt, das als zu verfolgendes Ziel bezeichnet ist, ausgeführt werden.
  • In einem dritten Aspekt der vorliegenden Erfindung wird in einem Fall, in dem das Nachverfolgen des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, in der Nachverfolgungsinformation gestört ist, die Anzeigeansichtskenntlichmachungseinheit gleichzeitig zwei der Anzeigeansichten kenntlichmachen, die erfasste Bilder enthalten, die das bewegte Objekt, das als das zu verfolgende Ziel eingestellt ist, jeweils vor und nach einem Zeitraum, in dem die Nachverfolgung gestört ist, anzeigen.
  • Wenn das Nachverfolgen des bewegten Objektes, das als zu verfolgendes Ziel bezeichnet ist, unterbrochen wird, kann die Anzeigeansicht, in der das bewegte Objekt, das als zu verfolgendes Ziel bezeichnet ist, aktuell erscheint, nicht identifiziert werden, aber es ist wahrscheinlich, dass das bewegte Objekt, das als zu verfolgendes Ziel bezeichnet ist, in jeweils einer oder beider der zwei Anzeigeansichten erscheint, die das bewegte Objekt vor und nach dem Zeitraum, in dem das Nachverfolgen unterbrochen ist, anzeigen. Entsprechend der oberen Struktur werden die zwei Anzeigeansichten gleichzeitig kenntlichgemacht, wodurch die überwachende Person die Aufgabe des Verfolgens ohne Sichtverlust auf das bewegte Objekt ausführen kann.
  • In einem vierten Aspekt der vorliegenden Erfindung enthält die Tracking-Unterstützungsvorrichtung ferner: eine Kandidatenauswahleinheit, die basierend auf der Nachverfolgungsinformation, wenn ein Fehler in der Nachverfolgungsinformation hinsichtlich des bewegenden Objektes auftritt, das als das zu verfolgende Ziel eingestellt ist, als Kandidaten ein oder mehrere bewegte Objekte auswählt, die einen hohen Grad an Relevanz bezüglich des bewegten Objektes haben, das als das zu verfolgende Ziel eingestellt ist; eine Kandidatenbildpräsentationseinheit, die als Kandidatenbild(er) ein oder mehrere erfasste Bilder extrahiert, in denen das oder die bewegten Objekte, die als die Kandidaten ausgewählt sind, enthalten sind, und die Anzeigevorrichtung zum Anzeigen eines Kandidatenauswahlbildschirmes veranlasst, in dem das oder die Kandidatenbilder angeordnet sind, so dass die überwachende Person auf dem Kandidatenauswahlbildschirm ein Kandidatenbild auswählt, in dem das bewegte Objekt, das als das zu verfolgendes Ziel bezeichnet ist, enthalten ist; und eine Nachverfolgungsinformationskorrektureinheit, die das zu verfolgende Ziel in das bewegte Objekt ändert, das in dem Kandidatenbild enthalten ist, das in dem Kandidatenauswahlbildschirm ausgewählt ist, und die Nachverfolgungsinformation hinsichtlich des bewegten Objektes korrigiert, das als das zu verfolgende Ziel eingestellt ist. Entsprechend dieser Struktur wird von der überwachenden Person nur erwartet, ein Kandidatenbild auszuwählen, in dem das bewegte Objekt, das als zu verfolgendes Ziel bezeichnet ist, erscheint und deshalb kann die Korrektur der Nachverfolgungsinformation, hinsichtlich des bewegten Objektes, das als zu verfolgendes Ziel bezeichnet ist, erleichtert werden und die Belastung der überwachenden Person kann reduziert werden.
  • In einem fünften Aspekt der vorliegenden Erfindung werden Verarbeitungen, die von der Kameraauswahleinheit und der Wiedergabeeinheit ausgeführt werden, mit Rücksicht auf Ereignisse ausgeführt, die vor, nach oder vor und nach einer Erfassungszeit eines bezeichneten Bildes für ein zu verfolgendes Ziel, auf dem die überwachende Person das zu verfolgende bewegte Objekt bezeichnet hat, auftreten.
  • Entsprechend dieser Struktur kann die überwachende Person den Zustand des bewegten Objektes vor der Zeit, in der das bewegte Objekt als das zu verfolgende Ziel bezeichnet wurde, und/oder den Zustand des bewegten Objektes nach der Zeit, in der das bewegte Objekt bezeichnet wurde, verstehen.
  • In einem sechsten Aspekt der vorliegenden Erfindung wird ein Tracking-Unterstützungssystem bereitgestellt zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das verfolgt werden soll, durch Anzeigen eines Bildschirmes, in dem eine Vielzahl von Anzeigeansichten zum Anzeigen von erfassten Bildern, die von jeweiligen Kameras aufgenommen und in einer Bildspeichereinheit gespeichert sind, in einem Planbild, das ein überwachtes Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras repräsentiert, angeordnet sind, auf einer Anzeigevorrichtung, mit: den Kameras, die Bilder von einem überwachten Gebiet aufnehmen; der Anzeigevorrichtung, die den Bildschirm anzeigt; und einer Vielzahl von Informationsverarbeitungsvorrichtungen, wobei die Vielzahl der Informationsverarbeitungsvorrichtungen gemeinsam enthalten: eine Nachverfolgungsverarbeitungseinheit, die ein oder mehrere bewegte Objekte, die auf den erfassten Bildern, die von den Kameras aufgenommen sind, detektiert wurden, nachverfolgt und Nachverfolgungsinformation von jedem bewegten Objekt erzeugt; eine Einstelleinheit für ein zu verfolgendes Ziel, die veranlasst, dass die erfassten Bilder, die in der Bildspeichereinheit gespeichert sind, in den Anzeigeansichten in Übereinstimmung mit einer bestimmten Suchbedingung, wie zum Beispiel einer Erfassungszeit, dargestellt werden und, in Antwort auf eine Eingabeoperation, die von der überwachenden Person an einer der Anzeigeansichten zum Bezeichnen eines zu verfolgenden bewegten Objektes ausgeführt wird, das bezeichnete bewegte Objekt als ein zu verfolgendes Ziel einstellt; eine Kameraauswahleinheit, die basierend auf der Nachverfolgungsinformation, die von der Nachverfolgungsverarbeitungseinheit erhalten wird, jede der Kameras, die vermutlich ein Bild des bewegten Objektes, das als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben, aus den Kameras mit Ausnahme von der Kamera auswählt, die der Anzeigeansicht, auf der das zu verfolgende Ziel bezeichnet wurde, zugeordnet ist; eine Bestätigungsbildpräsentationseinheit, die basierend auf der Nachverfolgungsinformation hinsichtlich des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, aus den erfassten Bildern, die von jeder von der Kameraauswahleinheit ausgewählt Kamera aufgenommen sind, ein Bestätigungsbild extrahiert, das ein erfasstes Bild ist, das von jeder von der Kameraauswahleinheit ausgewählt Kamera zu Beginn der Nachverfolgung des bewegten Objektes aufgenommen wurde, und von dem angenommen wird, dass es das bewegte Objekt enthält, und die Anzeigevorrichtung veranlasst, einen Bestätigungsbildschirm für ein zu verfolgendes Ziel, auf dem das oder die Bestätigungsbilder angeordnet sind, anzuzeigen; und eine Wiedergabeeinheit, die eine kontinuierliche Wiedergabe ausführt, in der die erfassten Bilder, aus denen das oder die Bestätigungsbilder von der Bestätigungsbildpräsentationseinheit extrahiert werden, sortiert nach dem Zeitverlauf in der Vielzahl der Anzeigeansichten angezeigt werden.
  • Entsprechend dieser Struktur ist es, genauso wie in der Struktur entsprechend dem ersten Aspekt der vorliegenden Erfindung oben, möglich in einem Fall, in dem die überwachende Person ein bestimmtes bewegtes Objekt verfolgt, während des Betrachtens erfasster Bilder, die von mehreren Kameras aufgenommen und auf dem Bildschirm der Anzeigevorrichtung angezeigt werden, eine Unterstützungsverarbeitung zum Reduzieren der Belastung der überwachenden Person angemessen auszuführen, um dadurch die überwachende Person in die Lage zu versetzen, die Aufgabe des Verfolgens reibungslos auszuführen, ohne die Sicht auf das zu verfolgende bewegte Objekt zu verlieren.
  • In einem siebten Aspekt der vorliegenden Erfindung wird ein Tracking-Unterstützungsverfahren bereitgestellt zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das verfolgt werden soll, durch Anzeigen eines Bildschirmes, in dem eine Vielzahl von Anzeigeansichten zum Anzeigen von erfassten Bildern, die von jeweiligen Kameras aufgenommen und in einer Bildspeichereinheit gespeichert sind, in einem Planbild, das ein überwachtes Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras repräsentiert, angeordnet sind, auf einer Anzeigevorrichtung, mit: einem Schritt des Veranlassens des Anzeigens der erfassten Bilder, die in der Bildspeichereinheit gespeichert sind, auf den Anzeigeansichten, in Übereinstimmung mit einer bestimmten Suchbedingung, wie zum Beispiel einer Erfassungszeit, und in Antwort auf eine Eingabeoption zum Bezeichnen eines zu verfolgenden bewegten Objektes, die von der überwachenden Person an einer der Anzeigeansichten ausgeführt wird, zum Einstellen des bezeichneten bewegten Objektes als ein zu verfolgendes Ziel; einem Schritt des Auswählens basierend auf Nachverfolgungsinformation, die durch Verarbeiten der erfassten Bilder erhalten wird, von jeder der Kameras, die vermutlich ein Bild des bewegten Objektes, das als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben, aus den Kameras mit Ausnahme von der Kamera, die der Anzeigeansicht entspricht, auf der das zu verfolgende Ziel bezeichnet wurde; einem Schritt des Extrahierens basierend auf der Nachverfolgungsinformation hinsichtlich des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, aus den erfassten Bilden, die von jeder Kamera aufgenommen sind, die in dem Schritt des Auswählens ausgewählt wurden, eines Bestätigungsbildes, das ein erfasstes Bild, das von jeder Kamera aufgenommen wird, die in dem Schritt des Auswählens zu Beginn des Nachverfolgens des bewegten Objektes ausgewählt wurde, und von dem angenommen wird, dass es das bewegte Objekt enthält, und Veranlassen der Anzeigevorrichtung einen Bestätigungsbildschirm für ein zu verfolgendes Ziel anzuzeigen, in dem das oder die Bestätigungsbilder angeordnet sind; und ein Schritt des Ausführens einer kontinuierlichen Wiedergabe, in der die erfassten Bilder, aus denen das oder die Bestätigungsbilder in dem Schritt des Extrahierens extrahiert sind, sortiert nach dem Zeitverlauf in der Vielzahl der Anzeigeansichten angezeigt sind.
  • Entsprechend dieser Struktur ist es, genauso wie in der Struktur entsprechend dem ersten Aspekt der vorliegenden Erfindung oben, möglich in einem Fall, in dem die überwachende Person ein bestimmtes bewegtes Objekt verfolgt, während des Betrachtens erfasster Bilder, die von mehreren Kameras aufgenommen und auf dem Bildschirm der Anzeigevorrichtung angezeigt werden, eine Unterstützungsverarbeitung zum Reduzieren der Belastung der überwachenden Person angemessen auszuführen, um dadurch die überwachende Person in die Lage zu versetzen, die Aufgabe des Verfolgens reibungslos auszuführen, ohne die Sicht auf das zu verfolgende bewegte Objekt zu verlieren.
  • KURZE BESCHREIBUNG DER ABBILDUNGEN
  • Hier wird die vorliegende Erfindung im Folgenden in der Form von bevorzugten Ausführungsformen mit Verweis auf die angehängten Abbildungen beschrieben, in denen:
  • 1 ein Diagramm zeigt, das eine Gesamtkonfiguration des Tracking-Unterstützungssystems entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 eine perspektivische Ansicht zeigt, die eine Anordnung der Kameras 1a1d in einem Laden zeigt;
  • 3 ein funktionales Blockdiagramm zeigt, das schematisch eine Konfiguration eines PCs 3 zeigt;
  • 4 ein erklärendes Diagramm zeigt, das einen Bezeichnungsbildschirm für ein zu verfolgendes Ziel zeigt, der auf einem Monitor 7 angezeigt werden soll;
  • 5 ein erklärendes Diagramm zeigt, das einen Bestätigungsbildschirm für ein zu verfolgendes Ziel zeigt, der auf dem Monitor 7 angezeigt werden soll;
  • 6 ein erklärendes Diagramm zeigt, das einen Kandidatenauswahlbildschirm zeigt, der auf dem Monitor 7 angezeigt werden soll;
  • 7 ein erklärendes Diagramm zeigt, das einen Kontinuierlichewiedergabebildschirm zeigt, der auf dem Monitor 7 angezeigt werden soll;
  • 8 ein erklärendes Diagramm zeigt, das Zustände einer Intrakameranachverfolgungsverarbeitung und einer Interkameranachverfolgungsverarbeitung, die jeweils von einer Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und einer Interkameranachverfolgungsverarbeitungseinheit 5 ausgeführt werden, zeigt.
  • 9 ein Betriebsflussdiagramm zeigt, das einen Ablauf von Verarbeitungsschritten, die von verschiedenen Einheiten des PCs 3 ausgeführt werden, und Handlungen zeigt, die von einer überwachenden Person auf verschiedenen Bildschirmen ausgeführt werden;
  • 10 ein erklärendes Diagramm zeigt, das Übergänge von Zuständen eines Rahmenbildes zum Bereitstellen von Hervorhebungen für eine oder mehrere Anzeigeansichten in einem Kontinuierlichewiedergabebildschirm zeigt;
  • 11 ein erklärendes Diagramm zeigt, das einen Bestätigungsbildschirm für ein zu verfolgendes Ziel zeigt, der auf dem Monitor 7 angezeigt werden soll;
  • 12 ein erklärendes Diagramm zeigt, das einen Kandidatenauswahlbildschirm zeigt, der auf dem Monitor 7 angezeigt werden soll;
  • 13 ein erklärendes Diagramm zeigt, das einen Kandidatenauswahlbildschirm zeigt, der auf einem Monitor 7 angezeigt werden soll; und
  • 14 ein erklärendes Diagramm zeigt, das einen Kandidatenauswahlbildschirm zeigt, der auf dem Monitor 7 angezeigt werden soll.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung mit Verweis auf die Abbildungen beschrieben. In der folgenden Beschreibung sind die Begriffe „Verfolgen” und „Nachverfolgen”, die im Grunde die gleiche Bedeutung haben, koexistent. Dies dient nur der Einfachheit der Beschreibung. Der Begriff „Verfolgen” wird hauptsächlich in der Beschreibung einer Konfiguration, die nahe mit einer überwachenden Person verbunden ist, benutzt, während der Begriff „Nachverfolgen” hauptsächlich in der Beschreibung einer Konfiguration, die nahe einer internen Funktion/Verarbeitung der Vorrichtung zugeordnet ist, benutzt wird.
  • 1 zeigt ein Diagramm, das eine Gesamtkonfiguration eines Tracking-Unterstützungssystems entsprechend der vorliegenden Erfindung zeigt. Dieses Tracking-Unterstützungssystem ist zur Benutzung in einem Einzelhandelskaufhaus, wie zum Beispiel einem Supermarkt, einem Selbstbedienungsladen oder ähnlichem, konfiguriert und umfasst Kameras 1a1d, einen Rekorder (Bildspeichereinheit) 2, einen PC (Personal Computer) (Tracking-Unterstützungsvorrichtung) 3 und eine Intrakameranachverfolgungsverarbeitungsvorrichtung 4.
  • Die Kameras 1a1d sind an angemessenen Postionen in einem Laden angebracht, um Bilder von einem überwachten Gebiet in dem Laden zu erfassen, und Bildinformation, die dabei erhalten wird, wird auf dem Rekorder 2 aufgezeichnet.
  • Der PC 3 ist mit einer Eingabevorrichtung 6, wie zum Beispiel einer Maus, für die überwachende Person zum Ausführen verschiedener Eingabeoperationen, und einem Monitor (Anzeigevorrichtung) 7 verbunden, auf dem ein Überwachungsbildschirm angezeigt ist. Es sei angemerkt, dass die Eingabevorrichtung 6 und der Monitor 7 als eine Bedienfeldanzeige ausgeführt sein können.
  • Der PC 3 ist in einer Sicherheitsstation oder ähnlichem des Ladens aufgestellt, sodass die überwachende Person (wie zum Beispiel ein Wachmann) die Echtzeitbilder eines Inneren des Ladens, die von den Kameras 1a1d aufgenommen werden, die in dem Überwachungsbildschirm auf dem Monitor 7 angezeigt werden, oder die früheren Bilder des Inneren des Ladens, die auf dem Rekorder 2 aufgezeichnet wurden, betrachten kann.
  • Ein PC 11, der in einem Managementbüro installiert ist, ist ebenfalls mit einem Monitor verbunden, der nicht in den Abbildungen gezeigt ist, sodass ein Benutzer im Managementbüro die Situation in dem Laden durch Betrachten der Echtzeitbilder des Inneren des Ladens, die von den Kameras 1a1d aufgenommen werden, oder der früheren Bilder des Inneren des Ladens, die auf dem Rekorder 2 aufgezeichnet sind, überprüfen kann.
  • Die Intrakameranachverfolgungsverarbeitungsvorrichtung 4 führt eine Verarbeitung des Nachverfolgens einer oder mehrerer Personen (bewegtes Objekt), die auf den erfassten Bildern detektiert werden, die von den jeweiligen Kameras 1a1d aufgenommen werden, und des Erzeugens von Nachverfolgungsinformation (Intrakameranachverfolgungsinformation) für jede Person aus. Diese Intrakameranachverfolgungsverarbeitung könnte durch Nutzen von bekannten Bilderkennungstechnologien (Menschendetektionstechnologie, Personentrackingtechnologie, etc.) ausgeführt werden.
  • Der PC 3 enthält ferner eine Interkameranachverfolgungsverarbeitungseinheit 5. Die Interkameranachverfolgungsverarbeitungseinheit 5 führt eine Verarbeitung des Erhaltens der Intrakameranachverfolgungsinformation von der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und des Verbindens der Personen, die auf den erfassten Bildern detektiert werden, die von den Kameras 1a1d aufgenommen werden, durch die Intrakameranachverfolgungsverarbeitung miteinander aus, sodass es möglich ist, eine Person kontinuierlich über die erfassten Bilder nachzuverfolgen, die von verschiedenen der mehreren Kameras 1a1d aufgenommen werden.
  • In der vorliegenden Ausführungsform ist jede Intrakameranachverfolgungsverarbeitungsvorrichtung 4 konfiguriert, die Intrakameranachverfolgungsverarbeitung zu allen Zeiten unabhängig von dem PC 3 auszuführen. Allerdings könnte die Nachverfolgungsverarbeitung als Antwort auf eine Anweisung des PCs 3 ausgeführt werden. Ferner, obwohl es bevorzugt wird, dass jede Intrakameranachverfolgungsverarbeitungsvorrichtung 4 die Nachverfolgungsverarbeitung für alle Personen ausführt, die in den erfassten Bildern detektiert werden, die von der jeweiligen Kamera aufgenommen werden, könnte die Nachverfolgungsverarbeitung nur in Hinsicht auf die Person, die als das zu verfolgende Ziel bezeichnet ist, und eine oder mehrere Personen, die dieser Person hochgradig zugeordnet sind, ausgeführt werden.
  • 2 zeigt eine perspektivische Ansicht, die eine Anordnung der Kameras 1a1d in einem Laden zeigt. In dem dargestellten überwachten Gebiet in dem Laden sind Passagen zwischen Artikelausstellungsräumen bereitgestellt und die erste bis vierte Kamera 1a1d sind angebracht, um hauptsächlich Bilder dieser Passagen zu erfassen.
  • Wenn eine Person sich durch eine Passage bewegt, wird das Bild der Person von einer oder mehrerer der ersten bis vierten Kameras 1a1d erfasst und die Kamera(s), die das Bild der Person erfassen, wechseln zusammen mit der Bewegung der Person. In der vorliegenden Ausführungsform wird weiter ein Beispiel beschrieben werden, in dem sich die Person so bewegt, dass das Bild der Person von den ersten bis dritten Kameras 1a1c erfasst wird und zwar erst von der ersten Kamera 1a, dann von der zweiten Kamera 1b und dann von der dritten Kamera 1c, allerdings ist der Weg der Bewegung der Person nicht auf dieses Bespiel beschränkt.
  • Als Nächstes wird eine Beschreibung der Tracking-Unterstützungsverarbeitung gegeben, die von dem PC 3, der in 1 gezeigt ist, ausgeführt wird. 3 zeigt ein funktionales Blockdiagramm, das schematisch eine Konfiguration des PCs 3 zeigt. 47 zeigen erklärende Diagramme, die die Bildschirme zeigen, die auf dem Monitor 7 angezeigt werden. Zunächst wird ein Entwurf der Bildschirme, die in 47 gezeigt sind, erklärt.
  • 4 zeigt einen Bezeichnungsbildschirm für ein zu verfolgendes Ziel, der es einem Benutzer (überwachende Person) erlaubt, eine Person, von der eine Verfolgung erwünscht wird, auf den erfassten Bildern an dem Datum und zu der Uhrzeit, an der die Person eine unerlaubte Handlung, wie zum Beispiel einen Ladendiebstahl, begangen hat, zu bezeichnen. 5 zeigt einen Bestätigungsbildschirm für ein zu verfolgendes Ziel, der Bestätigungsbilder enthält, die basierend auf der Nachverfolgungsinformation extrahiert werden, die von der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und der Interkameranachverfolgungsverarbeitungseinheit 5 erhalten werden, um der überwachenden Person zu erlauben zu überprüfen, ob die Nachverfolgungsinformation fehlerhaft ist. 6 zeigt einen Kandidatenauswahlbildschirm, der mehrere Kandidatenbilder anzeigt, das heiß Bilder, in denen jeweils Kandidaten für die Person enthalten sind, die als das zu verfolgende Ziel bezeichnet ist, sodass die überwachende Person das Kandidatenbild auswählen kann, in dem die Person, die als das zu verfolgende Ziel bezeichnet ist, enthalten ist. 7 enthält 7A7C und zeigt einen Kontinuierlichewiedergabebildschirm zum Ausführen einer kontinuierlichen Wiedergabe, in dem erfasste Bilder, in denen das verfolgte Objekt (Person) enthalten ist, sortiert nach dem Zeitverlauf anzeigt sind.
  • In den in 4, 5 und 7 gezeigten Bildschirmen sind Kameramarkierungen 42 (Bilder, die Kameras aufzeigen) für jeweilige Kameras 1a1d auf einem Planbild 41, das das überwachte Gebiet repräsentiert, an Orten übereinstimmend mit der wirklichen Anordnung der Kameras 1a1d angeordnet. Ferner sind mehrere Anzeigeansichten (Anzeigeausschnitte) 43a43d, die die erfassten Bilder anzeigen, die von den jeweiligen Kameras 1a1d aufgenommen werden, in der Umgebung der jeweiligen Kameramarkierung 42 angeordnet.
  • Die Kameramarkierungen 42 werden in einem Winkel angezeigt, um die Bildrichtung der jeweiligen Kameras 1a1d kenntlichzumachen, sodass die überwachende Person ungefähr den Bildbereich der Kameras 1a1d erkennen kann. Die Anzeigeansichten 43a43d sind an Stellen angeordnet, die im Wesentlichen dem Bildmotive der jeweiligen Kameras 1a1d entsprechen, sodass die überwachende Person ungefähr erkennen kann, welcher Teil des überwachten Gebiets, das von dem Planbild 41 repräsentiert ist, in jeder der Anzeigeansichten 43a43d angezeigt ist.
  • Ferner wird in den Bildschirmen, die in 47 gezeigt sind, jede Person, die in den erfassten Bildern detektiert wird, die in den Anzeigeansichten 43a43d angezeigt werden, mit einem Personendetektionsrahmen 47 gezeigt. Zusätzlich wird die Person, die als das zu verfolgende Ziel eingestellt ist, mit einem Personendetektionsrahmen 48 angezeigt, der kenntlichmacht, dass die Person das zu verfolgende Ziel ist. Dieser Personendetektionsrahmen 48 wird mit einer Farbe (zum Beispiel grün) hervorgehoben, um den Personendetektionsrahmen 48 von den Personendetektionsrahmen 47 zu unterscheiden, die in Verbindung mit den anderen detektierten Personen gezeigt werden.
  • Als Nächstes wird eine Beschreibung jeder Einheit des PCs 3, der in 3 gezeigt ist, gegeben. Der PC 3 enthält zusätzlich zu der Interkameranachverfolgungsverarbeitungseinheit 5 eine Nachverfolgungsinformationsverarbeitungseinheit 21, eine Nachverfolgungsinformationsspeichereinheit 22, eine Einstelleinheit für ein zu verfolgendes Ziel 23, eine Kameraauswahleinheit 24, eine Bestätigungseinheit für ein zu verfolgendes Ziel 25, eine Korrektureinheit für ein zu verfolgendes Ziel 26, eine Bildwiedergabeeinheit 27 und eine Bildschirmerzeugungseinheit 28.
  • Die Nachverfolgungsinformationsverarbeitungseinheit 21 übt eine Verarbeitung des Erhaltens der Nachverfolgungsinformation von der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und der Interkameranachverfolgungsverarbeitungseinheit 5 und des Speicherns der Nachverfolgungsinformation in der Nachverfolgungsinformationsspeichereinheit 22 aus.
  • Die Einstelleinheit für ein zu verfolgendes Ziel 23 führt eine Verarbeitung des Anzeigens eines Bezeichnungsbildschirmes für ein zu verfolgendes Ziel auf dem Monitor 7, in dem die erfassten Bilder, die in dem Rekorder 2 gespeichert sind, in den Anzeigeansichten 43a43d angezeigt sind, und des Einstellens als Antwort auf eine Eingabeoperation, die von der überwachenden Person auf einer der Anzeigeansichten 43a43d zum Bezeichnen einer zu verfolgenden Person ausgeführt wird, der bezeichneten Person als das zu verfolgende Ziel aus. Diese Eingabeoperation der überwachenden Person wird mithilfe der Eingabevorrichtung 6, wie zum Beispiel einer Maus, ausgeführt. Es sei angemerkt, dass das auf einer der Anzeigeansichten 43a43d angezeigte erfasste Bild, in dem die Operation zum Bezeichnen des zu verfolgenden Objektes (Person) ausgeführt wurde, im Folgenden als ein Bezeichnungsbild für ein zu verfolgendes Ziel bezeichnet wird.
  • Die Kameraauswahleinheit 24 führt eine Verarbeitung des Erhaltens der Nachverfolgungsinformation, die der Person entspricht, die als das zu verfolgende Ziel eingestellt ist, von der Nachverfolgungsinformationsspeichereinheit 22 und des Auswählens basierend auf der Nachverfolgungsinformation jeder der Kameras 1a1d, von denen angenommen wird, dass sie das Bild der Person aufgenommen haben, die als das zu verfolgende Ziel eingestellt ist, außer einer der Kameras 1a1d, die einer der Anzeigeansichten 43a43d entspricht, auf der das zu verfolgende Ziel bezeichnet wurde, aus.
  • Die Bestätigungseinheit für ein zu verfolgendes Ziel 25 umfasst eine Bestätigungsbildpräsentationseinheit 31. Die Bestätigungsbildpräsentationseinheit 31 führt eine Verarbeitung des Erhaltens der Nachverfolgungsinformation, die zu der Person gehören, die als das zu verfolgende Ziel eingestellt ist, von der Nachverfolgungsinformationsspeichereinheit 22 und, basierend auf der Verfolgungsinformation, des Extrahierens erfasster Bilder, von denen angenommen wird, dass sie die Person enthalten, als Bestätigungsbilder aus, sodass ein Bestätigungsbildschirm für ein zu verfolgendes Ziel, in dem die Bestätigungsbilder angeordnet sind, auf dem Monitor angezeigt wird. Während der Verarbeitung des Extrahierens der Bestätigungsbilder basierend auf der Nachverfolgungsinformation werden erfasste Bilder, von denen angenommen wird, dass sie die Person enthalten, die als das zu verfolgende Ziel eingestellt ist, von dem Rekorder 2 abgerufen.
  • Dadurch kann die überwachende Person durch Überprüfen, ob jedes Bestätigungsbild, das im Bestätigungsbildschirm für ein zu verfolgendes Ziel angezeigt ist, zu der Person gehört, die als das zu verfolgende Ziel bezeichnet wurde, bestimmen, ob die Nachverfolgungsinformation, die zu der Person, die als das zu verfolgende Ziel bezeichnet ist, gehört, einen Fehler enthält.
  • Wenn irgendein Bestätigungsbild gefunden wird, das zu einer oder mehreren Personen gehört, die von der Person, die als das zu verfolgende Ziel bezeichnet ist, verschieden sind, das heißt, wenn das Bestätigungsbild nur eine oder mehrere Personen enthält, die von der Person verschieden sind, die als das zu verfolgende Ziel bezeichnet ist, oder wenn das Bestätigungsbild die Person enthält, die als das zu verfolgende Ziel bezeichnet ist, aber der Personendetektionsrahmen 48, der das zu verfolgende Ziel kenntlichmacht, in Verbindung mit einer Person angezeigt wird, die verschieden ist von der Person, die als das zu verfolgende Ziel bezeichnet ist, dann enthält die Nachverfolgungsinformation, die zu der Person gehört, die als das zu verfolgende Ziel bezeichnet ist, einen Fehler.
  • Die Korrektureinheit für ein zu verfolgendes Ziel 26 enthält eine Kandidatenauswahleinheit 33, eine Kandidatenbildpräsentationseinheit 34 und eine Nachverfolgungsinformationskorrektureinheit 35. Die Kandidatenauswahleinheit 33 führt eine Verarbeitung zum Erhalten der Nachverfolgungsinformation von jeder Person von der Nachverfolgungsinformationsspeichereinheit 22, und des Auswählens basierend auf der Nachverfolgungsinformation von Personen als Kandidaten aus, die der Person, die als das zu verfolgende Ziel eingestellt ist, stark ähneln. Diese Kandidatenauswahlverarbeitung wird ausgeführt in Antwort auf eine Anweisungsoperation, die von der überwachenden Person ausgeführt wird, wenn die überwachende Person feststellt, dass es einen Fehler in der Nachverfolgungsinformation hinsichtlich der Person gibt, die als das zu verfolgende Ziel bezeichnet ist. In der Kandidatenauswahlverarbeitung wird ein Grad der Relevanz für jede Person basierend auf einer Detektionszeit der Person (Erfassungszeit des Bildrahmens), einer Detektionsposition der Person, einer Bewegungsgeschwindigkeit der Person, einer Farbinformation des Personenbildes, etc. erhalten. Die Farbinformation für jedes Personenbild wird mithilfe einer Methode des Extrahierens von Farben durch die Benutzung von Templates erhalten. Ferner ordnet die Kandidatenauswahleinheit 33 die Personen, die als Kandidaten (im Folgenden Kandidatenpersonen genannt) ausgewählt werden, in Übereinstimmung mit ihrem jeweiligen Grad der Relevanz an.
  • Die Kandidatenbildpräsentationseinheit 34 führt eine Verarbeitung des Extrahierens eines erfassten Bildes, in dem die Person enthalten ist, für jede Person, die von der Kandidatenauswahleinheit 33 als ein Kandidat ausgewählt ist, (dieses erfasste Bild kann als ein Kandidatenbild bezeichnet werden) und des Anzeigens eines Kandidatenauswahlbildschirms auf dem Monitor 7 aus, in dem die Kandidatenbilder angeordnet sind, sodass die überwachende Person auf dem Kandidatenauswahlbildschirm ein Kandidatenbild auswählen kann, in dem die Person, die als das zu verfolgende Ziel bezeichnet ist, enthalten ist. In der Verarbeitung des Extrahierens des Kandidatenbildes basierend auf der Nachverfolgungsinformation hinsichtlich jeder Kandidatenperson wird ein erfasstes Bild, in dem die Kandidatenperson enthalten ist, von dem Rekorder 2 erhalten.
  • Speziell in der vorliegenden Ausführungsform wird eine Verarbeitung ausgeführt zum Erhalten der erfassten Zeit des Bezeichnungsbildes für ein zu verfolgendes Ziel und jedes Kandidatenbildes und der Identifikationsinformation der Kameras 1a1d, die diese Bilder erfasst haben, von der Nachverfolgungsinformation, die in der Nachverfolgungsinformationsspeichereinheit 22 gespeichert ist, und zum Anordnen der Bezeichnungsbilder für ein zu verfolgendes Ziel und der Kandidatenbilder auf dem Kandidatenauswahlbildschirm, sodass sie in der Reihenfolge der Erfassungszeit angeordnet und basierend auf den Kameras 1a1d, von denen diese Bilder aufgenommen wurden, gruppiert sind. Ferner führt die Kandidatenbildpräsentationseinheit 34 eine Verarbeitung des Erhaltens der Nachverfolgungsinformation hinsichtlich jeder Person, die als ein Kandidat ausgewählt ist, eines Nachverfolgungszeitraumes der Person und des Anzeigens eines Bildes aus, das den Nachverfolgungszeitraum in Verbindung mit dem entsprechenden Kandidatenbild in dem Kandidatenauswahlbildschirm repräsentiert. Außerdem führt die Kandidatenbildpräsentationseinheit 34 eine Verarbeitung aus, die veranlasst, dass die erfassten Bilder als Standbilder in dem Anfangszustand des Kandidatenauswahlbildschirms angezeigt werden und nach einer Anweisungsoperation der überwachenden Person veranlasst, dass die erfassten Bilder als bewegte Bilder angezeigt werden.
  • Die Nachverfolgungsinformationskorrektureinheit 35 führt eine Verarbeitung des Änderns des zu verfolgenden Ziels zu der Person, die mit dem auf dem Kandidatenauswahlbildschirm ausgewählten Kandidatenbild verbunden ist, und des Korrigierens der Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, aus. Das heißt, wenn die Person, die als das zu verfolgende Ziel kenntlichgemacht ist, in irgendeinem der vorher erwähnten Bestätigungsbilder verschieden von der Person ist, die als das zu verfolgende Ziel bezeichnet ist, wird berücksichtigt, dass unabsichtlich eine Veränderung der Person, die als das zu verfolgende Ziel eingestellt ist, aufgetreten ist und deshalb wird basierend auf der Nachverfolgungsinformation hinsichtlich der Person, die als das korrekte zu verfolgende Ziel eingestellt ist, die Nachverfolgungsinformation hinsichtlich der Person, die als zu verfolgende Ziel bezeichnet ist, korrigiert. Die dadurch korrigierte Nachverfolgungsinformation wird in der Nachverfolgungsinformationsspeichereinheit 22 gespeichert.
  • Es sei angemerkt, dass jede der oben beschriebenen Verarbeitungen, die von der Kameraauswahleinheit 24, der Bestätigungseinheit 25 für ein zu verfolgendes Ziel und der Korrektureinheit 26 für ein zu verfolgendes Ziel ausgeführt werden, im Hinblick auf die Ereignisse ausgeführt werden, die zeitlich vor, nach oder vor und nach der erfassten Zeit des Bezeichnungsbildes für ein zu verfolgendes Ziel auftreten, auf dem die überwachende Person die zu verfolgende Person bezeichnet hat.
  • Die Bildwiedergabeeinheit 27 führt eine Verarbeitung zum Anzeigen der erfassten Bilder der Kameras 1a1d, die von der Kameraauswahleinheit 24 ausgewählt sind, in den entsprechenden Anzeigeansichten 43a43d aus. Insbesondere in der vorliegenden Ausführungsform führt die Bildwiedergabeeinheit 27 eine Verarbeitung der kontinuierlichen Wiedergabe aus, sodass erfasste Bilder, in denen die Person enthalten ist, die als das zu verfolgende Ziel bezeichnet ist, in den Anzeigeansichten 43a43d sortiert nach dem Zeitverlauf angezeigt werden.
  • Die Bildschirmerzeugungseinheit 28 erzeugt Bildschirme zum Anzeigen auf dem Monitor 7 und enthält eine Basisbildschirmerzeugungseinheit 36, eine Anzeigeansichtskenntlichmachungseinheit 37, eine Kenntlichmachungseinheit für ein zu verfolgendes Ziel 38 und eine Verarbeitungseinheit 39 für erfasste Bilder.
  • Die Bildschirmerzeugungseinheit 28 erzeugt den Bezeichnungsbildschirm für ein zu verfolgendes Ziel, der in 4 gezeigt ist, in Antwort auf eine Anweisung von der Einstelleinheit für ein zu verfolgendes Ziel 23, erzeugt den Bestätigungsbildschirm für ein zu verfolgendes Ziel, der in 5 gezeigt ist, in Antwort auf eine Anweisung der Bestätigungsbildpräsentationseinheit 31, erzeugt den Kandidatenauswahlbildschirm, der in 6 gezeigt ist, in Antwort auf eine Anweisung von der Kandidatenbildpräsentationseinheit 34 und erzeugt den Kontinuierlichewiedergabebildschirm, der in 7 gezeigt ist, in Antwort auf eine Anweisung von der Bildwiedergabeeinheit 27.
  • Die Basisbildschirmerzeugungseinheit 36 führt eine Verarbeitung des Erzeugens eines Basisbildschirms (Hintergrundbildschirm) aus, in dem die Kameramarkierungen 42 für die jeweiligen Kameras 1a1d und leere Rahmen (die, die erfassten Bilder nicht enthaltend) der mehreren Anzeigeansichten 43a43d, in denen die erfassten Bilder angezeigt werden sollen, die von den jeweiligen Kameras 1a1d aufgenommen werden, in einem Planbild 41, das das überwachte Gebiet repräsentiert, angeordnet sind.
  • Die Anzeigeansichtskenntlichmachungseinheit 37 führt eine Verarbeitung des Kenntlichmachens in dem Kontinuierlichewiedergabebildschirm von einer der Anzeigeansichten 43a43d, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint, aus. Speziell in der vorliegenden Ausführungsform wird die eine der Anzeigeansichten 43a43d, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint, mit einer Hervorhebung ausgestattet, um sie von den anderen der Anzeigeansichten 43a43d zu unterscheiden. Noch spezieller wird als die Hervorhebung ein Rahmenbild 45, das mit einer vorbestimmten Farbe gefärbt ist, angezeigt, sodass es an der äußeren Umrandung der einen hervorgehobenen der Anzeigeansichten 43a43d liegt. In dieser Anzeigeansichtskenntlichmachungsverarbeitung wird die Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, erhalten und basierend auf der Nachverfolgungsinformation wird eine der Anzeigeansichten 43a43d, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint, kenntlichgemacht.
  • Die Kenntlichmachungseinheit für ein zu verfolgendes Ziel 38 führt eine Verarbeitung des Erhaltens von Nachverfolgungsinformation von der Nachverfolgungsinformationsspeichereinheit 22 und des Kenntlichmachens basierend auf der Nachverfolgungsinformation der Person, die als das zu verfolgende Ziel eingestellt ist, in jeder der Anzeigeansichten 43a43d, in der die Person erscheint, die als das zu verfolgende Ziel eingestellt ist, aus. Speziell in der vorliegenden Ausführungsform wird das Bild der Person, die als das zu verfolgende Ziel eingestellt ist, das in den Anzeigeansichten 43a43d angezeigt ist, mit einer Hervorhebung bereitgestellt, um die Person von den anderen Personen zu unterscheiden. Noch spezifischer ist die Person, die als das zu verfolgende Ziel eingestellt ist, als Hervorhebung mit einem Personendetektionsrahmen 48 gezeigt, der kenntlichmacht, dass die Person das zu verfolgende Ziel ist. Dieser Personendetektionsrahmen 48 wird mit einer Farbe (zum Beispiel grün) hervorgehoben, die den Personendetektionsrahmen 48 von den Personendetektionsrahmen 47 unterscheidet, die in Verbindung mit jeder Person gezeigt werden, die auf den erfassten Bildern detektiert wird.
  • Die Verarbeitungseinheit 39 für erfasste Bilder führt eine Verarbeitung des Einbettens der erfassten Bilder, die von dem Rekorder 2 erhalten werden, in die entsprechenden Anzeigeansichten 43a43d auf dem Basisbildschirm aus, der von der Basisbildschirmerzeugungseinheit 36 erzeugt wird.
  • Es sei angemerkt, dass die verschiedenen Einheiten des in 3 gezeigten PCs 3 durch Ausführen von Programmen für die Tracking-Unterstützung durch die CPU des PCs 3 realisiert sind. Diese Programme könnten auf dem PC 3 vorinstalliert sein, der als eine Informationsverarbeitungsvorrichtung dient, um eine Vorrichtung zu verkörpern, die zur Tracking-Unterstützung zweckbestimmt ist, oder könnten einem Benutzer in Form gespeichert auf einem angemessenen Programmaufnahmemedium, als ein Anwendungsprogramm, das auf einem Universal-Betriebssystem laufen kann bereitgestellt werden.
  • Als Nächstes folgt eine Beschreibung eines Falles, bei dem ein Fehler in der Nachverfolgungsinformation in der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und der Interkameranachverfolgungsverarbeitungseinheit 5 auftritt. 8 zeigt ein erklärendes Diagramm, das Zustände der Intrakameranachverfolgungsverarbeitung und der Interkameranachverfolgungsverarbeitung jeweils ausgeführt von der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und der Interkameranachverfolgungsverarbeitungseinheit 5 zeigt. Hier wird eine Beschreibung eines Beispiels gegeben, in dem zwei Personen A und B sich gleichzeitig bewegen, sodass ihre Bilder von den ersten bis dritten Kameras 1a1c erfasst werden, wie in 2 gezeigt.
  • Die Intrakameranachverfolgungsverarbeitungsvorrichtung 4 der ersten Kamera 1a detektiert die Personen A und B auf den erfassten Bildern, die von der ersten Kamera 1a aufgenommen werden, und gibt den Personen A und B jeweils Personen-Ids (Id = 01, Id = 02). Die Intrakameranachverfolgungsverarbeitungsvorrichtung 4 der zweiten Kamera 1b detektiert die Personen A und B in den erfassten Bildern, die von der zweiten Kamera 1b aufgenommen werden, und gibt den Personen A und B jeweils Personen-Ids (ID = 03, Id = 04). In diesem speziellen Beispiel wird die Nachverfolgung der Person A unterbrochen und es benötigt Zeit, die Person B zu detektieren, sodass der Start der Nachverfolgung der Person B verzögert wird. Die Intrakameranachverfolgungsverarbeitungsvorrichtung 4 der dritten Kamera 1c detektiert die Personen A und B auf dem erfassten Bild, das von der dritten Kamera 1c aufgenommen ist, und gibt den Personen A und B jeweils Personen-Ids (Id = 05, Id = 06).
  • Die Interkameranachverfolgungsverarbeitungseinheit 5 des PCs 3 führt eine Verarbeitung des Erhaltens der Nachverfolgungsinformation von jeder der Intrakameranachverfolgungsverarbeitungsvorrichtungen 4 der ersten bis dritten Kameras 1a1c und des Verbindens der einen oder mehreren Personen, die von der Nachverfolgungsinformation der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 für eine Kamera detektiert sind, mit der einen oder den mehreren Personen, die von der Nachverfolgungsinformation der Intrakameranachverfolgungsverarbeitungsvorrichtung einer anderen Kamera detektiert sind aus. Speziell in diesen gezeigten Beispielen tritt aufgrund der Unterbrechung und Verzögerung der Nachverfolgung verursacht in der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 der zweiten Kamera 1b ein Fehler in der Interkameranachverfolgungsverarbeitung zwischen der zweiten Kamera 1b und der dritten Kamera 1c auf, sodass die Person A und die Person B miteinander vertauscht werden. In einem solchen Fall, wenn die Person A als das zu verfolgende Ziel in der Anzeigeansicht 43c entsprechend der dritten Kamera 1c bezeichnet ist, wird die Person B als das zu verfolgende Ziel jeweils in der ersten Anzeigeansicht 43a und der zweiten Anzeigeansicht 43b entsprechend der ersten Kamera 1a und der zweiten Kamera 1b angezeigt.
  • Aus diesem Grund wird, wenn die Nachverfolgungsinformation, die von der Interkameranachverfolgungsverarbeitungseinheit 5 erhalten wird, einen Fehler enthält, eine Person, die von der Person, die als das zu verfolgende Ziel bezeichnet ist, verschieden ist als das zu verfolgende Ziel in den Anzeigeansichten 43a bis 43d angezeigt, wobei es möglich ist, zu verifizieren, ob die Nachverfolgungsinformation einen Fehler enthält oder nicht. Wenn ein Fehler in der Nachverfolgungsinformation durch diese Verifikation gefunden wird, wird eine Verarbeitung ausgeführt, um die überwachende Person dazu zu bringen eine korrekte Person als das zu verfolgende Ziel auszuwählen und die Nachverfolgungsinformation entsprechend zu korrigieren.
  • Als Nächstes wird eine detaillierte Beschreibung der verschiedenen Bildschirme, die in 47 gezeigt sind, und der Operationen, die von der überwachenden Person auf diesen Bildschirmen ausgeführt werden, gegeben. 9 zeigt ein Betriebsflussdiagramm, das Verarbeitungen, die von den verschiedenen Einheiten des in 3 gezeigten PCs 3 ausgeführt werden, und Operationen, die von der überwachenden Person auf den Bildschirmen ausgeführt werden, zeigt.
  • Zunächst, wenn eine Operation zum Starten einer Tracking-Unterstützungsverarbeitung ausgeführt wird, wird der Bezeichnungsbildschirm für ein zu verfolgendes Ziel, der in 4 gezeigt ist, auf dem Monitor 7 angezeigt und die überwachende Person führt eine Operation zum Bezeichnen eines Datums und einer Uhrzeit auf dem Bezeichnungsbildschirm für ein zu verfolgendes Ziel aus (ST101). Ein oberer Teil des Bezeichnungsbildschirmes für ein zu verfolgendes Ziel wird mit Eingabefeldern für Datum und Uhrzeit bereitgestellt und wenn die überwachende Person ein Datum und eine Uhrzeit (Jahr, Monat, Tag, Stunde, Minute und Sekunde) bezeichnet und einen „Such”-Knopf betätigt, werden die erfassten Bilder (Standbilder), die von den Kameras 1a1d an dem bezeichneten Datum und der bezeichneten Uhrzeit aufgenommen wurden, in den jeweiligen Anzeigeansichten 43a43d angezeigt (ST102). Es sei angemerkt, dass das Datum und die Zeit, bei der die zu verfolgende Person, eine Handlung, wie zum Beispiel Ladendiebstahl, begangen hat, bekannt ist und deshalb basierend auf diesem Datum und dieser Uhrzeit sicherlich ein erfasstes Bild gefunden werden kann, in dem die zu verfolgende Person enthalten ist.
  • In dem Bezeichnungsbildschirm für eine zu verfolgende Person führt die überwachende Person eine Operation des Bezeichnens einer Person als ein zu verfolgendes Ziel aus (ST103). Speziell benutzt die überwachende Person die Eingabevorrichtung 6, wie zum Beispiel eine Maus, um einen Zeiger 49 auf das Bild der erwünschten zu verfolgenden Person zu bewegen, die in dem erfassten Bild enthalten ist, das in einer der Anzeigeansichten 43a43d angezeigt ist, und führt eine Operation (eine Click-Operation im Falle einer Maus) zum Auswählen der Person aus. In dem Beispiel, das in 4 gezeigt ist, erscheint die zu verfolgende Person (oder ist angezeigt) in der dritten Anzeigeansicht 43c, die zu der dritten Kamera 1c gehört, und diese Person wird als das zu verfolgende Ziel bezeichnet.
  • Nachdem die überwachende Person eine Operation zum Bezeichnen einer Person als das zu verfolgende Ziel in dem Bezeichnungsbildschirm für ein zu verfolgendes Ziel ausgeführt hat, wie oben beschrieben, führt die Kameraauswahleinheit 24 eine Verarbeitung des Auswählens jeder der Kameras 1a1d aus, von denen angenommen wird, dass sie ein Bild der Person, die als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben (ST104). Dann führt die Bestätigungsbildpräsentationseinheit 31 der Bestätigungseinheit für ein zu verfolgendes Ziel 25 eine Verarbeitung aus, die veranlasst, dass der Monitor 7 den Bestätigungsbildschirm für ein zu verfolgendes Ziel, wie in 5 gezeigt, anzeigt, in dem Bestätigungsbilder angeordnet sind, von denen angenommen wird, dass sie die Person, die als das zu verfolgende Ziel bezeichnet ist, enthalten (ST105).
  • In dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, wie er in 5 gezeigt ist, wird ein Bestätigungsbild in jeder der einen oder mehreren Anzeigeansichten 43a43d entsprechend den ausgewählten einen oder mehreren der Kameras 1a1d angezeigt, in denen das Bestätigungsbild, das in einer Anzeigeansicht angezeigt wird, ein Bild ist, das von der jeweiligen Kamera aufgenommen ist, und von dem angenommen wird, dass es die Person, die als das zu verfolgende Ziel bezeichnet ist, enthält. Das heißt, das Bestätigungsbild, das in einer Anzeigeansicht angezeigt ist, ist ein repräsentatives Bild (Standbild) ausgewählt aus den erfassten Bildern, die von der entsprechenden Kamera aufgenommen wurden und von denen angenommen wird, dass sie die Person, die als das zu verfolgende Ziel bezeichnet ist, enthalten. Das entsprechende Bild könnte ein erfasstes Bild sein, das aufgenommen wurde, als die Nachverfolgung der Person, die als das zu verfolgende Ziel bezeichnet ist, gestartet wurde, mit anderen Worten, ein erfasstes Bild, in dem die Person, die als das zu verfolgende Ziel bezeichnet ist, zum ersten Mal detektiert wurde. In jeder der Anzeigeansichten 43a43d in dem Bestätigungsbildschirm für ein zu verfolgendes Ziel wird der Personendetektionsrahmen 47 in Verbindung mit jeder Person (wenn überhaupt) in dem erfassten Bild angezeigt und insbesondere wird der Personendetektionsrahmen 48, der das zu verfolgende Ziel kenntlichmacht, in Verbindung mit der Person, die als das zu verfolgende Ziel eingestellt ist, angezeigt.
  • Ein unterer Teil des Bestätigungsbildschirms für ein zu verfolgendes Ziel wird mit einem Wiedergabeknopf, einem umgekehrte Wiedergabe-Knopf, einem Stoppknopf, einem Schnellvorlauf-Knopf und einem Rückspulknopf bereitgestellt. Nach Betätigen dieser Knöpfe in den Anzeigeansichten 43a43d werden die erfassten Bilder, die von den jeweiligen Kameras 1a1d aufgenommen werden, als bewegte Bilder angezeigt, sodass die erfassten Bilder, in denen die Person, die als das zu verfolgendes Ziel bezeichnet ist, vermutlich erfasst ist, als bewegte Bilder in einigen der Anzeigeansichten 43a43d angezeigt werden. Das macht es dem Benutzer (überwachende Person) möglich durch Betrachten der bewegten Bilder zu bestätigen, ob das zu verfolgende Ziel korrekt ist.
  • In einem Fall, in dem die Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, einen Fehler enthält, könnten ein oder mehrere Bestätigungsbilder, die in einigen der Anzeigeansichten 43a43d in dem Bestätigungsbildschirm für ein zu verfolgendes Ziel angezeigt sind, die Person, die als das zu verfolgende Ziel bezeichnet ist, nicht enthalten oder, obwohl jedes Bestätigungsbild die Person, die als das zu verfolgende Ziel bezeichnet ist, zeigt, könnte der Personendetektionsrahmen 48 in Verbindung mit einer Person, die sich von der Person, die als das zu verfolgende Ziel eingestellt ist, unterscheidet, angezeigt werden. Aus diesem Grund ist es dem Benutzer (überwachende Person) durch Betrachten der Bestätigungsbilder möglich zu bestimmen, ob die Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, einen Fehler enthält oder nicht.
  • Wenn die überwachende Person durch den Bestätigungsbildschirm für ein zu verfolgendes Ziel feststellt, dass das zu verfolgende Ziel, das in irgendeiner der Anzeigeansichten 43a43d angezeigt wird, inkorrekt ist (NEIN in ST106), dann weist die überwachende Person an, dass Kandidaten für das korrekte zu verfolgende Ziel angezeigt werden; speziell sucht sie eine der Anzeigeansichten 43a43d, in der das zu verfolgende Ziel nicht korrekt kenntlich gemacht ist, aus und betätigt einen „manuelles Suchen”-Knopf (ST107). Daraufhin führt die Kandidatenauswahleinheit 33 der Korrektureinheit für ein zu verfolgendes Ziel 26 eine Verarbeitung des Auswählens von Personen als Kandidaten aus, die einen hohen Grad an Relevanz für die Person, die als das zu verfolgende Ziel bezeichnet ist, haben (ST108). Danach führt die Kandidatenbildpräsentationseinheit 34 eine Verarbeitung des Extrahierens von erfassten Bildern als Kandidatenbilder aus, die entsprechende Personen enthalten, die als Kandidaten von der Kandidatenauswahleinheit 33 ausgewählt wurden, und veranlasst den Monitor 7, den Kandidatenauswahlbildschirm, wie er in 6 gezeigt ist, anzuzeigen (ST109).
  • In dem in 6 gezeigten Kandidatenauswahlbildschirm sind die Kandidatenbilder, die von einer der Kameras 1a1d entsprechend zu der einen der Anzeigeansichten 43a43d, die als fehlerhaft ausgewählt wurde, auf dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, der in 5 gezeigt ist, angezeigt, in dem basierend auf der Reihenfolge, die den Kandidatenpersonen gegeben wird, eine vorbestimmte Zahl von Kandidatenbildern der Kandidatenpersonen höheren Ranges angezeigt werden. Spezifisch werden in dem Beispiel gezeigt in 6, vier Anzeigeansichten 51a51d in dem Kandidatenauswahlbildschirm angeordnet, in denen jeweils die Kandidatenbilder der Kandidatenpersonen des ersten bis vierten Ranges angezeigt sind.
  • Ein unterer Teil dieses Kandidatenauswahlbildschirmes ist mit einem „kein Kandidat-Knopf und einem „nächster”-Knopf bereitgestellt. Wenn der „kein Kandidat”-Knopf betätigt wird, geht der Bildschirm ohne einen ausgewählten Kandidaten zurück zu dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, wie er in 5 gezeigt wird. Wenn der „nächster”-Knopf betätigt wird, werden Kandidatenbilder, die Kandidatenpersonen eines nächsten Ranges enthalten, angezeigt.
  • Wenn auf dem Kandidatenauswahlbildschirm die überwachende Person ein Kandidatenbild, das die korrekte Person enthält, die als das zu verfolgende Ziel bezeichnet ist, auswählt (ST110), wird ein Bestätigungsknopf als Popup-Fenster angezeigt und wenn dieser Bestätigungsknopf betätigt wird, kehrt der Bildschirm zu dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, wie er in 5 gezeigt ist, zurück. Zu diesem Zeitpunkt führt die Nachverfolgungsinformationskorrektureinheit 35 eine Verarbeitung des Änderns des zu verfolgenden Ziels in die Person, die in dem Kandidatenbild erfasst ist, das auf dem Kandidatenauswahlbildschirm ausgewählt ist, und des Korrigierens der Nachverfolgungsinformation hinsichtlich der Person aus, die als das zu verfolgende Ziel bezeichnet ist (ST111).
  • Danach überprüft die überwachende Person, ob das zu verfolgende Ziel in allen der Anzeigeansichten 43a43d in dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, der in 5 gezeigt ist, korrekt ist (ST112) und wenn erkannt wird, dass es eine Anzeigeansicht gibt, in der das zu verfolgende Ziel nicht korrekt ist, wählt die überwachende Person auf dem Bestätigungsbildschirm für ein zu verfolgendes Ziel eine der Anzeigeansichten 43a43d aus, in der das zu verfolgende Ziel nicht korrekt kenntlichgemacht ist und betätigt den „manuelles Suchen”-Knopf (ST107), wobei die oben erwähnten Verarbeitungen und Operationen wiederholt werden.
  • Wenn bestätigt ist, dass das zu verfolgende Ziel in allen Anzeigeansichten 43a43d in dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, der in 5 gezeigt ist, korrekt ist, betätigt die überwachende Person den Wiedergabeknopf, der in dem unteren Teil des Bestätigungsbildschirms für ein zu verfolgendes Ziel bereitgestellt ist. Daraufhin führt die Bildwiedergabeeinheit 27 eine Verarbeitung der kontinuierlichen Wiedergabe aus, in der die erfassten Bilder, in denen die Person enthalten ist, die als das zu verfolgende Ziel bezeichnet ist, in den Anzeigeansichten 43a43d in der Reihenfolge des Zeitverlaufs angezeigt sind, wobei der Kontinuierlichewiedergabebildschirm, wie in 7 gezeigt, auf dem Monitor 7 angezeigt ist (ST113). Diese kontinuierliche Wiedergabe wird basierend auf den korrekten Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, ausgeführt und deshalb kann die überwachende Person sehen, welche Handlungen von der Person, die als das zu verfolgende Ziel bezeichnet ist, in dem überwachten Gebiet ausgeführt wurden und kann erneut bestätigen, ob die Nachverfolgungsinformation einen Fehler enthält.
  • Wie im Vorhergehenden beschrieben, wird in der vorliegenden Ausführungsform ein Bildschirm auf dem Monitor 7 angezeigt, sodass der Bildschirm ein Planbild 41 enthält, das das überwachte Gebiet repräsentiert, auf dem mehrere Anzeigeansichten 43a43d zum Anzeigen erfasster Bilder, die von jeweiligen Kameras 1a1d aufgenommen werden, in Übereinstimmung mit der wirklichen Anordnung der Kameras 1a1d angeordnet sind, und die Person, die als das zu verfolgende Ziel bezeichnet ist, in diesen Anzeigeansichten 43a43d angezeigt ist. Das erlaubt es der überwachenden Person, leicht zu überprüfen, welche Handlungen von der Person, die als das zu verfolgende Ziel bezeichnet ist, in dem überwachten Gebiet ausgeführt wurden. Insbesondere könnte die überwachende Person weniger Schwierigkeiten im Auffinden der Anzeigeansichten aus den mehreren Anzeigeansichten 43a43d haben, in denen die Person, die als das zu verfolgende Ziel bezeichnet ist, angezeigt ist, und deshalb kann die Belastung der überwachenden Person, beim Ausführen einer Aufgabe des Verfolgens reduziert werden und die Aufgabe des Verfolgens kann ausgeführt werden, ohne die Sicht auf die Person, die als das zu verfolgende Ziel bezeichnet ist, zu verlieren. Ferner kann, selbst wenn verschiedene Personen in einer der Anzeigeansichten 43a43d, die von Interesse sind, erscheinen, die zu verfolgende Person herausragend angegeben werden, und deshalb ist es möglich, verlässlich die Anzeigeansicht kenntlichzumachen, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, erscheint.
  • In der vorliegenden Ausführungsform werden, wenn ein Fehler in der Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel eingestellt ist, auftritt, Personen ausgewählt, die einen hohen Grad an Relevanz bezüglich der Personen haben, die als das zu verfolgende Ziel eingestellt ist, als Kandidaten für das korrekte zu verfolgende Ziel ausgewählt und Kandidatenbilder, in denen entsprechende Kandidatenpersonen erscheinen, werden auf dem Kandidatenauswahlbildschirm angezeigt, wobei von der überwachenden Person nur erwartet wird, dass sie ein Kandidatenbild auswählt, in dem die Person, die als das zu verfolgende Ziel bezeichnet ist, erscheint. Aus diesem Grund kann das Korrigieren der Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, einfach gemacht werden und die Belastung der überwachenden Person kann reduziert werden.
  • Ferner werden in der vorliegenden Ausführungsform basierend auf der Nachverfolgungsinformation Bestätigungsbilder, von denen angenommen wird, dass sie die Person, die als das zu verfolgende Ziel eingestellt ist, enthalten, in dem Bestätigungsbildschirm für ein zu verfolgendes Ziel angezeigt und deshalb kann durch Überprüfen, ob jedes Bestätigungsbild tatsächlich die Person enthält, die als das zu verfolgende Ziel bezeichnet ist, die überwachende Person einfach bestimmen, ob die Nachverfolgungsinformation hinsichtlich der Person, die als das zu verfolgende Ziel bezeichnet ist, einen Fehler enthält.
  • Außerdem wird in der vorliegenden Ausführungsform ferner jede der Verarbeitungen, die von der Kameraauswahleinheit 24, der Bestätigungseinheit für ein zu verfolgendes Ziel 25 und der Korrektureinheit für ein zu verfolgendes Ziel 26 ausgeführt wird, hinsichtlich der Ereignisse ausgeführt, die zeitlich vor, nach, oder vor und nach der erfassten Zeit des Bezeichnungsbildes für ein zu verfolgendes Ziel geschehen, auf dem die überwachende Person die zu verfolgende Person bezeichnet hat, und deshalb kann die überwachende Person die Situation der Person, die als das zu verfolgende Ziel bezeichnet ist, vor und/oder nach der Zeit, bei der die Bezeichnung ausgeführt wurde, kennen.
  • 10 zeigt ein erklärendes Diagramm, das Zustandsübergänge des Rahmenbildes 45 in dem in 7 gezeigten Kontinuierlichewiedergabebildschirm zeigt, wobei das Rahmenbild 45 eine der Anzeigeansichten 43a43d kenntlichmacht, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint. Hier wird die Beschreibung eines Beispiels gegeben, in dem die Person, die als das zu verfolgende Ziel bezeichnet ist, sich bewegt, um in der ersten Anzeigeansicht 43a, dann in der zweiten Anzeigeansicht 43b und dann in der dritten Anzeigeansicht 43c zu erscheinen.
  • Wie oben in der vorhergehenden Ausführungsform beschrieben, kann kontinuierliche Wiedergabe ausgeführt werden, sodass die erfassten Bilder, in denen die Person enthalten ist, die als das zu verfolgende Ziel bezeichnet ist, der Reihe nach in den mehreren Anzeigeansichten 43a43d angezeigt sind. Wie in 7A7C gezeigt, ist in dem Kontinuierlichewiedergabebildschirm, auf dem die kontinuierliche Wiedergabe ausgeführt wird, ein gelbes Rahmenbild 45 auf einer der Anzeigeansichten 43a43d angezeigt, während die Anzeigeansicht erfasste Bilder anzeigt, in denen die Person enthalten ist, die als das zu verfolgende Ziel bezeichnet ist.
  • In dem Beispiel, das in 10 gezeigt ist, wird der Zeitpunkt der Detektion der Personen und des Starts der Nachverfolgung der Person in der zweiten Kamera 1b (präziser, in der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 der zweiten Kamera 1b; ähnliche Vereinfachungen könnten genauso in der folgenden Beschreibung gemacht werden) verzögert, sodass ein Zeitraum erzeugt wird, in dem das Nachverfolgen der Person zwischen dem Zeitpunkt, bei dem die Nachverfolgung in der zweiten Kamera 1b gestartet wird, und dem Zeitpunkt, bei dem die Nachverfolgung in der ersten Kamera 1a beendet wird, unterbrochen ist. In der vorliegenden Ausführungsform werden, während des Zeitraums, in dem die Nachverfolgung unterbrochen ist, zwei gelbe Rahmenbilder 45 gleichzeitig auf zwei der Anzeigeansichten 43a43d angezeigt, die jeweils vor und nach dem Zeitraum erfasste Bilder anzeigen, in denen die Person erscheint, die als das zu verfolgende Ziel bezeichnet ist. In dem Beispiel, das in 10 gezeigt ist, werden zwei gelbe Rahmenbilder 45 gleichzeitig auf der ersten Anzeigeansicht 43a und der zweiten Anzeigeansicht 43b angezeigt.
  • Ferner ist in dem Beispiel, das in 10 gezeigt ist, der Zeitpunkt, in dem die Person detektiert wird und die Nachverfolgung gestartet wird, in der dritten Kamera 1c früher als der Zeitpunkt, bei der das Nachverfolgen der Person in der zweiten Kamera 1b beendet wird. In einem solchen Fall wird in der vorliegenden Ausführungsform, wenn die Person detektiert ist und die Nachverfolgung in einer der Kameras 1a1d gestartet ist, die das Erfassen des Bildes der Person, die als das zu verfolgende Ziel bezeichnet ist, zu einem späteren Zeitpunkt startet, die Bildwiedergabe, die in einer der Anzeigeansichten 43a43d entsprechend zu einer anderen der Kameras 1a1d ausgeführt wird, die das Bild der Person, die als das zu verfolgende Ziel bezeichnet ist, vor dem Start der Nachverfolgung in der einen der Kameras 1a1d erfasst hat, und die Anzeige des Rahmenbildes 45 auf einer der Anzeigeansichten 43a43d gestoppt. Deshalb werden in dem Beispiel gezeigt in 10, wenn die Person detektiert ist und die Nachverfolgung in der dritten Kamera 1c gestartet ist, die Bildwiedergabe in der dritten Anzeigeansicht 43c entsprechend der dritten Kamera 1c und die Anzeige des Rahmenbildes 45 auf der Anzeigeansicht 43c gestartet, während zur selben Zeit die Bildwiedergabe in der zweiten Anzeigeansicht 43b entsprechend der zweiten Kamera 1b und die Anzeige des Rahmenbildes 45 in der zweiten Anzeigeansicht 43b gestoppt werden.
  • Wie oben beschrieben, wird in der vorliegenden Ausführungsform kontinuierliche Wiedergabe ausgeführt, sodass die erfassten Bilder, in denen die Person enthalten ist, die als das zu verfolgende Ziel bezeichnet ist, der Reihe nach in den mehreren Anzeigeansichten 43a43d angezeigt werden, wobei die Person, die als das zu verfolgende Ziel bezeichnet ist, kontinuierlich in den mehreren Anzeigeansichten 43a43d verfolgt werden kann. Aus diesem Grund kann die überwachende Person leicht erkennen, welche Handlungen von der Person, die als das zu verfolgende Ziel bezeichnet ist, in dem überwachten Gebiet ausgeführt wurden.
  • Insbesondere in der vorliegenden Ausführungsform ist der Kontinuierlichewiedergabebildschirm, in dem die kontinuierliche Wiedergabe ausgeführt wird, daran angepasst, ein Rahmenbild 45 in Verbindung mit einer der Anzeigeansichten 43a43d, in denen die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint, anzuzeigen, wobei die eine der Anzeigeansichten 43a43d, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, erscheint, auf einen Blick gefunden werden kann. Das kann Zeit beim Auffinden der einen Anzeigeansicht aus den mehreren Anzeigeansichten 43a43d sparen, auf der die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint, und aus diesem Grund kann die Belastung der überwachenden Person beim Ausführen einer Aufgabe des Verfolgens reduziert werden und die Aufgabe des Verfolgens kann reibungslos, ohne die Sicht auf die Person, die als das zu verfolgende Ziel bezeichnet ist, zu verlieren, ausgeführt werden.
  • Wenn die Nachverfolgung der Person, die als das zu verfolgende Ziel bezeichnet ist, in der Nachverfolgungsverarbeitung unterbrochen ist, die von der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 und der Interkameranachverfolgungsverarbeitungseinheit 5 ausgeführt wird, kann eine der Anzeigeansichten 43a43d, in der die Person, die als das zu verfolgende Ziel bezeichnet ist, aktuell erscheint, nicht identifiziert werden. In einem solchen Fall ist es höchst wahrscheinlich, dass die Person, die als das zu verfolgende Ziel bezeichnet ist, in einer oder in beiden der zwei der Anzeigeansichten 43a43d erscheint, die jeweils die Person vor und nach dem Zeitraum, in dem die Nachverfolgung unterbrochen wurde, anzeigen, und aus diesem Grund werden in der vorliegenden Ausführungsform Rahmenbilder 45 gleichzeitig auf den beiden der Anzeigeansichten 43a43d angezeigt. Das erlaubt es der überwachenden Person, die Aufgabe des Verfolgens reibungslos ohne Verlust der Sicht auf die zu verfolgende Person auszuführen.
  • Als Nächstes wird eine Beschreibung einer weiteren Ausführungsform des Bestätigungsbildschirms für ein zu verfolgendes Ziel und des Kandidatenauswahlbildschirms, die auf dem Monitor 7 angezeigt werden, gegeben. 11 zeigt ein erklärendes Diagramm, das einen Bestätigungsbildschirm für ein zu verfolgendes Ziel, der auf den Monitor 7 angezeigt wird, zeigt. 1214 zeigen erklärende Diagramme, die jedes einen Kandidatenauswahlbildschirm, der auf dem Monitor 7 angezeigt werden soll, zeigen. Es sei angemerkt, dass diese Ausführungsform der vorherigen Ausführungsform entspricht, ausgenommen der Punkte, die in der folgenden Beschreibung erwähnt werden.
  • Der Bestätigungsbildschirm für ein zu verfolgendes Ziel, der in 11 gezeigt ist, wird angezeigt, wenn die zu verfolgende Person auf dem in 4 gezeigten Bezeichnungsbildschirm für ein zu verfolgendes Ziel bezeichnet ist. Dieser Bestätigungsbildschirm für ein zu verfolgendes Ziel ist größtenteils der gleiche, wie der in 5 gezeigte, mit der Ausnahme, dass ein „Zeitachse durchsuchen”-Knopf in einem unteren Teil dieses Bestätigungsbildschirms für ein zu verfolgendes Ziel angezeigt ist. Genauso wie in dem Beispiel, das in 5 gezeigt ist, betätigt die überwachende Person, wenn die überwachende Person überprüft, ob das zu verfolgende Ziel auf diesem Bestätigungsbildschirm für ein zu verfolgendes Ziel korrekt ist und gefunden wird, dass das zu verfolgende Ziel nicht korrekt ist, den „Zeitachse durchsuchen”-Knopf. Daraufhin werden die in 1214 gezeigten Kandidatenauswahlbildschirme angezeigt.
  • In den Kandidatenauswahlbildschirmen, die in 1214 gezeigt sind, sind ein Bezeichnungsbild für ein zu verfolgendes Ziel 61, auf dem die überwachende Person eine zu verfolgende Person bezeichnet hat, und mehrere Kandidatenbilder 62, in denen jeweils Personen, die als Kandidaten für das zu verfolgende Ziel ausgewählt sind, enthalten sind, in der Reihenfolge der erfassten Zeit angeordnet. Spezifischer werden in der vorliegenden Ausführungsform das Bezeichnungsbild für ein zu verfolgendes Ziel 61 und die Kandidatenbilder 62 basierend auf den Kameras 1a1d, von denen sie erfasst wurden, gruppiert und in der Reihenfolge der erfassten Zeit angeordnet.
  • Ferner wird in dem Kandidatenauswahlbildschirm, der in 1214 gezeigt ist, dem Kandidatenbild 62 einer Kandidatenperson mit dem höchsten Rang, das heißt einer Kandidatenperson, die den höchsten Grad an Relevanz hinsichtlich der Person hat, die als das zu verfolgende Ziel bezeichnet ist, eine größere Größe gegeben als den anderen Kandidatenbildern 62.
  • In dem Beispiel, das in 1214 gezeigt ist, sind Kandidatenbilder 62, die verschiedene Erfassungszeiten haben, in der horizontalen Richtung angeordnet und verschiedene Gruppen von Kandidatenbildern 62 entsprechend dem jeweiligen Kameras 1a1d sind in der vertikalen Richtung angeordnet. Allerdings könnten die vertikalen und horizontalen Richtungen getauscht werden; das heißt, es könnte eine Konfiguration ausgeführt werden, sodass Kandidatenbilder 62, die verschiedene Erfassungszeiten haben, in der vertikalen Richtung angeordnet sind und verschiedene Gruppen der Kandidatenbilder 62 entsprechend den jeweiligen Kameras 1a1d in der horizontalen Richtung angeordnet sind. Ferner wird in dem Beispiel, das in 1214 gezeigt ist, die Kenntlichmachung der erfassten Zeit gestaltet, sodass die Zeit von links nach rechts rückwärtsgeht. Allerdings könnte die Kenntlichmachung der erfassten Zeit gestaltet sein, sodass die Zeit von links nach rechts vorwärtsgeht, und die Anordnung des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel und der Kandidatenbilder 62 könnte entsprechend verändert sein.
  • Der Kandidatenauswahlbildschirm, der in 12 gezeigt ist, wird erst gezeigt, wenn, nachdem die zu verfolgende Person auf dem in 4 gezeigten Bezeichnungsbildschirm für ein zu verfolgendes Ziel bezeichnet ist, der „Zeitachse durchsuchen”-Knopf in dem Bestätigungsbildschirm für ein zu verfolgendes Ziel, der in 11 gezeigt ist, betätigt wird. In dem illustrierten Beispiel ist das Bezeichnungsbild 61 für ein zu verfolgendes Ziel in dem in 12 gezeigten Kandidatenauswahlbildschirm angezeigt, das angezeigt war, als die Anzeigeansicht 43c entsprechend der dritten Kamera 1c bezeichnet wurde, um die Person, die als das zu verfolgende Ziel bezeichnet ist, auszuwählen. Ferner werden außerdem ein Kandidatenbild 62 relevant für die erste Kamera 1a und mehrere Kandidatenbilder 62 relevant für die zweite Kamera 1b angezeigt, da bisher keine Auswahl in Hinblick auf das Kandidatenbild 62 relevant für die erste Kamera 1a und die zweite Kamera 1b getroffen wurde.
  • Der in 13 gezeigte Kandidatenauswahlbildschirm wird angezeigt, wenn eins der Kandidatenbilder 62, das relevant für die zweite Kamera 1b ist, auf dem Kandidatenauswahlbildschirm, der in 12 gezeigt ist, ausgesucht ist. In dem illustrierten Beispiel sind in dem in 13 gezeigten Kandidatenauswahlbildschirm das Bezeichnungsbild für ein zu verfolgendes Ziel 61 relevant für die dritte Kamera 1c und ein ausgewähltes Bild 65, das eines der Kandidatenbilder 62 relevant für die zweite Kamera 1b, das auf dem in 12 gezeigten Kandidatenauswahlbildschirm ausgewählt ist, angezeigt. Ferner werden mehrere Kandidatenbilder 62, die für die erste Kamera 1a relevant sind, angezeigt, da noch keine Auswahl getroffen wurde im Hinblick auf die Kandidatenbilder 62, die für die erste Kamera 1a relevant sind.
  • Es sei angemerkt, dass die Kandidatenauswahlbildschirme, die in 12 und 13 gezeigt sind, angezeigt werden, wenn die Kameras 1a1d nur die umfassen, die Bilder der Person erfasst haben, die als das zu verfolgende Ziel bezeichnet ist, die zeitlich vor der Erfassungszeit des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel liegen, das in der Anzeigeansicht angezeigt ist, in der die Person als zu verfolgendes Ziel bezeichnet wurde, und in einem Fall, in dem die Kameras 1a1d solche umfassen, die Bilder der Person erfasst haben, die als das zu verfolgende Ziel bezeichnet ist, die zeitlich nach der Erfassungszeit des Bezeichnungsbildes für ein zu verfolgendes Ziel 61 liegen, das in der Anzeigeansicht angezeigt ist, in der die Person als zu verfolgendes Ziel bezeichnet wurde, erfasst haben, wird der in 14 gezeigte Kandidatenauswahlbildschirm angezeigt.
  • In dem in 14 gezeigten Kandidatenauswahlbildschirm ist zusätzlich zu dem Bezeichnungsbild 61 für ein zu verfolgendes Ziel relevant für die dritte Kamera 1c und den Kandidatenbildern 62 relevant für die erste Kamera 1a und die zweite Kamera 1b, die frühere Erfassungszeit als die des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel haben, ein weiteres Kandidatenbild 62 relevant für die vierte Kamera 1d, das eine spätere Erfassungszeit als die des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel hat, angezeigt.
  • Deshalb werden in der vorliegenden Ausführungsform die Kandidatenbilder 62, die von einigen der Kameras 1a1d (Kameras 1a und 1b in dem Beispiel, das in 14 gezeigt ist) zeitlich vor der Erfassungszeit des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel aufgenommen sind, und die Kandidatenbilder 62, die von einigen anderen der Kameras 1a1d zeitlich nach der Erfassungszeit des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel aufgenommen sind, angezeigt und deswegen kann die überwachende Person den Bewegungszustand der Person vor und nach der Erfassungszeit des Bezeichnungsbildes 61 für ein zu verfolgendes Ziel verstehen.
  • Ferner wird in den Kandidatenauswahlbildschirmen, die in 1214 gezeigt sind, ein Pfeilbild 63 an einer Position, die sowohl mit dem Bezeichnungsbild für ein zu verfolgendes Ziel 61, den Kandidatenbildern 62, als auch mit dem ausgewählten Bild 65 verbunden ist, angezeigt (in dem illustrierten Beispiel, an einer Position unter jedem Bild), um den Nachverfolgungszeitraum der Person, die als das zu verfolgende Ziel bezeichnet ist, oder der Person, die als ein Kandidat ausgewählt ist, zu repräsentieren, das heißt, einen Zeitraum von dann, wenn die Nachverfolgung sobald die Person in dem erfassten Bild detektiert ist gestartet wird, bis dann, wenn die Nachverfolgung beendet wird. Dieses Pfeilbild 63 ist gestaltet, sodass der Startpunkt des Pfeils der Nachverfolgungsstartzeit entspricht und der Endpunkt des Pfeils der Nachverfolgungsendzeit entspricht.
  • Deshalb sind in der vorliegenden Ausführungsform der Nachverfolgungszeitraum der Person, die als das zu verfolgende Ziel bezeichnet ist, und sowohl in dem Bezeichnungsbild für ein zu verfolgendes Ziel 61, als auch dem ausgewählten Bild 65 enthalten ist, und der Nachverfolgungszeitraum jeder Kandidatenperson, die in dem jeweiligen einen der Kandidatenbilder 62 enthalten ist, visuell durch das Pfeilbild 63 kenntlich gemacht und das macht es möglich, auf einen Blick die Relevanz zwischen der Person, die als das zu verfolgende Ziel bezeichnet ist und die sowohl in dem Bezeichnungsbild für ein zu verfolgendes Ziel 61, als auch dem Auswahlbild 65 enthalten ist, und jeder Kandidatenperson, die in dem jeweiligen einen der Kandidatenbilder 62 enthalten ist, zu entscheiden.
  • Zusätzlich sind in den in 1214 gezeigten Kandidatenauswahlbildschirmen Linienbilder 64 (in dem illustrierten Beispiel gestrichelte Linienbilder) angezeigt, um die Pfeilbilder 63, die für eine von jeweils zweien der Kameras 1a1d, die auf dem Bewegungsweg der Person benachbart sind, relevant sind, mit den Pfeilbildern 63 zu verbinden, die relevant für die andere der zwei Kameras sind, wobei jedes Pfeilbild 63 in Verbindung mit dem Bezeichnungsbild für ein zu verfolgendes Ziel 61, dem Kandidatenbild 62 oder dem ausgewählten Bild 65 wie oben beschrieben, angezeigt wird. Spezifischer wird in dem in 1214 gezeigten Beispiel jedes Linienbild 64 angezeigt, um den Startpunkt des Pfeilbildes 63, das in Verbindung mit einem Bild steht, das früher auf dem Bewegungsweg der Person erfasst ist, mit dem Endpunkt des Pfeilbildes 63 zu verbinden, das mit einem Bild in Verbindung steht, das später auf dem Bewegungsweg der Person erfasst ist.
  • Diese Linienbilder 64 machen es möglich, auf einen Blick die Relevanz zwischen der Person, die als das zu verfolgende Ziel bezeichnet ist und die sowohl in dem Bezeichnungsbild für ein zu verfolgendes Ziel 61, als auch dem Auswahlbild 65 enthalten ist, und jeder Kandidatenperson, die in dem jeweiligen einen der Kandidatenbilder 62 enthalten ist, zu entscheiden. Das heißt, es kann entschieden werden, dass, je größer der Winkel des Linienbildes 64 (ein Winkel relativ zum Pfeilbild 63) ist, desto zeitlich näher sind sich die beiden Bilder und desto höher ist die Relevanz zwischen den Personen, die in diesen Bildern enthalten sind.
  • Ferner sind in den in 1214 gezeigten Kandidatenauswahlbildschirmen die Kandidatenbilder 62 im Anfangszustand als Standbilder angezeigt und wenn der Wiedergabeknopf, der in dem unteren Teil des Kandidatenauswahlbildschirmes bereitgestellt ist, betätigt wird, werden die erfassten Bilder, die während des jeweiligen Nachverfolgungszeitraums der Kandidatenperson, die in jedem Kandidatenbild 62 enthalten ist, aufgenommen wurden, als bewegte Bilder in dem Anzeigeausschnitt für das Kandidatenbild 62 angezeigt. Zusätzlich wird, wenn der Anzeigeausschnitt für ein gegebenes Kandidatenbild 62 betätigt wird, ein Popup-Bildschirm, der eine größere Größe hat, angezeigt und die erfassten Bilder werden als bewegte Bilder in dem Popup-Bildschirm angezeigt, sodass der Benutzer die Kandidatenperson in dem Bildschirm mit der größeren Größe sehen kann.
  • Zusätzlich werden ein „andere Kandidaten”-Knopf, ein „kein Kandidat”-Knopf und ein „manuelles Suchen”-Knopf in dem in 1214 gezeigten Kandidatenauswahlbildschirm bereitgestellt. Der „andere Kandidaten”-Knopf soll betätigt werden, wenn die zu verfolgende Person nicht in den aktuell angezeigten Kandidatenbildern 62 gefunden wird, und es erwünscht wird, die Kandidatenbilder anzuzeigen, die Kandidatenpersonen des nächsten Ranges enthalten. Der „kein Kandidat”-Knopf wird bereitgestellt, um die Verarbeitung der Auswahl eines passenden der Kandidatenbilder 62 zu beenden, ohne eines auszuwählen, wenn es kein passendes Kandidatenbild 62 gibt. Der „manuelle Suche”-Knopf wird bereitgestellt, um zu veranlassen, dass der in 6 gezeigte Kandidatenauswahlbildschirm anstelle des in 1214 gezeigten Kandidatenauswahlbildschirmes angezeigt wird.
  • Wie oben beschrieben, sind in der vorliegenden Ausführungsform das Bezeichnungsbild für ein zu verfolgendes Ziel 61, in dem die überwachende Person eine Auswahl der Person trifft, die als das zu verfolgende Ziel bezeichnet ist, und die mehreren Kandidatenbilder 62, in denen jeweils Personen enthalten sind, die als Kandidaten für das zu verfolgende Ziel ausgesucht sind, in der Reihenfolge der Erfassungszeit in dem Kandidatenauswahlbildschirm angeordnet. Das macht es möglich, auf einen Blick die Relevanz zwischen der Person, die als das zu verfolgende Ziel bezeichnet ist und die in dem Bezeichnungsbild für ein zu verfolgendes Ziel 61 enthalten ist, und jeder Kandidatenperson, die in dem jeweiligen der Kandidatenbilder 62 enthalten ist, zu entscheiden, wobei die Auswahl der Kandidatenbilder 62 leicht gemacht werden kann.
  • Spezifischer in der vorliegenden Ausführungsform werden das Bezeichnungsbild für ein zu verfolgendes Ziel 61 und die Kandidatenbilder 62 basierend auf den Kameras 1a1d, von denen sie erfasst wurden, gruppiert und in der Reihenfolge der erfassten Zeit in dem Kandidatenauswahlbildschirm angeordnet. Das macht es möglich, die Relevanz zwischen der Person, die als das zu verfolgende Ziel bezeichnet ist, und die in dem Bezeichnungsbild 61 für ein zu verfolgendes Ziel erfasst ist, und jeder Kandidatenperson, die in dem jeweiligen der Kandidatenbilder 62 erfasst ist, durch Miteinbeziehung der Kameras 1a1d, die diese Bilder erfasst haben, zu entscheiden, wobei die Auswahl eines Kandidatenbildes 62 noch leichter gemacht werden kann.
  • Ferner sind in der vorliegenden Ausführungsform die Pfeilbilder 63, die jedes den Nachverfolgungszeitraum der Person, die als das zu verfolgende Ziel bezeichnet ist, oder der Person, die als ein Kandidat ausgewählt ist, repräsentieren, in dem Kandidatenauswahlbildschirm angezeigt. Das erlaubt es der überwachenden Person, auf einen Blick den Nachverfolgungszeitraum der Person, die als das zu verfolgende Ziel bezeichnet ist und die in dem Bezeichnungsbild für ein zu verfolgendes Ziel 61 enthalten ist, und den Nachverfolgungszeitraum jeder Kandidatenperson, die in dem jeweiligen der Kandidatenbilder 62 enthalten ist, zu verstehen, wobei die Auswahl eines Kandidatenbildes noch einfacher gemacht werden kann.
  • Ferner werden in der vorliegenden Ausführungsform die erfassten Bilder im Anfangszustand des Kandidatenauswahlbildschirmes als Standbilder angezeigt und auf eine Anweisungsoperation der überwachenden Person hin werden die erfassten Bilder als bewegte Bilder angezeigt. Aus diesem Grund ist es, wenn erwünscht, möglich, durch die bewegten Bilder zu überprüfen, ob jedes Kandidatenbild die Person, die als das zu verfolgende Ziel bezeichnet ist, enthält, wobei die Auswahl eines Kandidatenbildes noch einfacher gemacht werden kann.
  • Im Vorherigen wurde die vorliegende Erfindung im Hinblick auf konkrete Ausführungsformen beschrieben. Allerdings werden diese Ausführungsformen für illustrative Zwecke bereitgestellt und die vorliegende Erfindung ist nicht auf die Ausführungsformen beschränkt. Es sei außerdem angemerkt, dass nicht alle der strukturellen Elemente der Tracking-Unterstützungsvorrichtung, des Tracking-Unterstützungssystems und des Tracking-Unterstützungsverfahrens, wie in den Ausführungsformen der vorliegenden Erfindung gezeigt, notwendigerweise unentbehrlich sind, und sie könnten, wenn es angebracht ist, selektiv benutzt werden, ohne von dem Wesen der vorliegenden Erfindung abzuweichen.
  • Zum Beispiel wurde in den vorherigen Ausführungsformen eine Beschreibung eines beispielhaften Falles gegeben, in dem die Erfindung auf einen Selbstbedienungsladen, wie zum Beispiel einen Supermarkt, angewendet wurde. Allerdings könnte die vorliegende Erfindung auch auf ein anderes kommerzielles Unternehmen als einen Selbstbedienungsladen, wie zum Beispiel ein Restaurant, das ein Imbiss-Restaurant sein könnte, etc. angewandt werden. Ferner könnte die vorliegende Erfindung auf eine andere Einrichtung als ein kommerzielles Unternehmen, wie zum Beispiel ein Kraftwerk oder ähnliches, angewendet werden.
  • Ferner wurde in den vorherigen Ausführungsformen eine Beschreibung eines Beispiels gegeben, in dem eine Person als ein bewegtes Objekt verfolgt wurde. Allerdings kann auch eine Konfiguration erstellt werden, um ein anderes bewegtes Objekt statt einer Person, wie zum Beispiel ein Fahrzeug, das ein Automobil, Fahrrad, etc. sein könnte, zu verfolgen.
  • Ferner wurde in den vorherigen Ausführungsformen eine Beschreibung eines Beispiels gegeben, in dem vier Kameras 1a1d aufgestellt sind und vier Anzeigeansichten 43a43d zum jeweiligen Anzeigen der erfassten Bilder, die von den Kameras 1a1d aufgenommen werden, in dem Bildschirm angeordnet sind, aber die Anzahl der Kameras 1a1d und die der Anzeigeansichten 43a43d ist nicht hierauf beschränkt. Die Konfiguration entsprechend der vorherigen Ausführungsformen kann insbesondere vorteilhaft für eine große Anzahl von Anzeigeansichten 43a43d sein.
  • Ferner werden in den bisherigen Ausführungsformen die Rahmenbilder 45, die mit vorbestimmten Farben gefärbt sind, zum Hervorheben der Anzeigeansichten 43a43d auf dem Überwachungsbildschirm jeweils in einer äußeren Umrandung der einen der Anzeigeansichten 43a43d, die hervorgehoben werden soll, angezeigt, aber die Hervorhebung ist nicht auf eine solche Ausführungsform beschränkt und es ist möglich, ein vorbestimmtes Bild, wie zum Beispiel eine Markierung innerhalb oder in der Umgebung einer erwünschten der Anzeigeansichten 43a43d und/oder ein Bild eines Pfeiles, der zwei der Anzeigeansichten 43a43d verbindet, anzuzeigen.
  • Ferner wurde in den bisherigen Ausführungsformen eine Beschreibung eines Beispiels gegeben, in dem die Intrakameranachverfolgungsverarbeitung von der Intrakameranachverfolgungsverarbeitungsvorrichtung 4 ausgeführt wurde und die Interkameranachverfolgungsverarbeitung und die Tracking-Unterstützungsverarbeitung von dem PC 3, wie in 3 gezeigt, ausgeführt wurden. Allerdings könnte die Intrakameranachverfolgungsverarbeitung ebenfalls von dem PC 3 ausgeführt werden. Es ist außerdem möglich, jede der Kameras 1a1d so zu konfigurieren, dass sie eine Intrakameranachverfolgungsverarbeitungseinheit enthält. Ferner könnte die Interkameranachverfolgungsverarbeitungseinheit 5 als eine Nachverfolgungsverarbeitungsvorrichtung getrennt von dem PC 3 konfiguriert werden. Ferner wurde jede der Kameras 1a1d in den Zeichnungen als eine Gehäusekamera mit einem beschränkten Blickwinkel gezeigt. Allerdings sind die Kameras 1a1d nicht darauf beschränkt und es ist ebenfalls möglich, eine oder mehrere ungerichtete Kameras, die ein Weitwinkelbild erfassen können, zu benutzen.
  • Ferner wurde in den vorherigen Ausführungsformen die Intrakameranachverfolgungsverarbeitung, die Interkameranachverfolgungsverarbeitung und die Tracking-Unterstützungsverarbeitung von einer Vorrichtung aufgestellt in dem Laden ausgeführt, aber diese Verarbeitungen könnten von dem PC 11, der in einem Managementbüro aufgestellt ist, oder einem Cloud Computer 12, der ein Cloud Computing System bildet, wie in 1 gezeigt, ausgeführt werden. Ferner könnten diese notwendigen Verarbeitungen durch die Zusammenarbeit von mehreren Informationsverarbeitungsvorrichtungen ausgeführt werden, wobei in diesem Fall die mehreren Informationsverarbeitungsvorrichtungen konfiguriert sind in der Lage zu sein miteinander zu kommunizieren oder Information über ein Kommunikationsmedium, wie zum Beispiel ein IP Netzwerk oder ein LAN oder ein Speichermedium, wie zum Beispiel eine Festplatte und eine Speicherkarte, auszutauschen. Dadurch führen die mehreren Informationsverarbeitungsvorrichtungen gemeinsam die notwendigen Verarbeitungen, die ein Tracking-Unterstützungssystem ausmachen, aus.
  • In diesem Fall wird es bevorzugt, dass die Vorrichtung, die in dem Laden aufgestellt ist, zum Ausführen von wenigstens der Intrakameranachverfolgungsverarbeitung oder der Interkameranachverfolgungsverarbeitung konfiguriert ist. Da die Information, die von der Intrakameranachverfolgungsverarbeitung oder der Interkameranachverfolgungsverarbeitung erhalten wird, eine geringe Datenmenge besitzt, kann in einer solchen Struktur, selbst wenn die verbleibenden Verarbeitungen von einer Informationsverarbeitungsvorrichtung, die an einem anderen Ort als dem Laden, wie zum Beispiel dem PC 11, der in dem Managementbüro aufgestellt ist, ausgeführt werden, die Kommunikationslast klein sein und es ist deshalb einfach, das System in Form eines „Wide Area”-Netzwerks zu betreiben.
  • Es könnte außerdem bevorzugt werden, dass der Cloud Computer 12 zum Ausführen wenigstens der Intrakameranachverfolgungsverarbeitung oder der Interkameranachverfolgungsverarbeitung konfiguriert ist. In einer solchen Struktur werden, obwohl die Intrakameranachverfolgungsverarbeitung und die Interkameranachverfolgungsverarbeitung große Mengen von Berechnungen benötigen, diese Verarbeitungen von der Informationsverarbeitungsvorrichtung, die ein Cloud Computing System ausmacht, geleistet, und deshalb ist es nicht notwendig, eine Hochgeschwindigkeitsinformationsverabeitungsvorrichtung auf der Nutzerseite, das heißt in dem Laden oder ähnlichem, auszurüsten. Da die verbleibenden Verarbeitungen eine geringe Menge an Berechnungen benötigen, können die verbleibenden Verarbeitungen als erweiterte Funktionen einer Informationsverarbeitungsvorrichtung, die in dem Laden aufgestellt ist, um als Verkaufsinformationsmanagementvorrichtung zu dienen, ausgeführt werden und dies kann die von dem Benutzer zu tragenden Kosten reduzieren.
  • Der Cloud Computer 12 könnte zum Ausführen der Gesamtheit der notwendigen Verarbeitungen konfiguriert sein. In einer solchen Struktur wird es möglich, den Verfolgungszustand auf einem mobilen Terminal, wie zum Beispiel einem Smartphone 13, zusätzlich zu dem PC 3, der in dem Laden aufgestellt ist, und zu dem PC 11, der in dem Managementbüro aufgestellt ist, zu betrachten und dies erlaubt es einem Benutzer, den Verfolgungszustand nicht nur in dem Laden oder dem Managementbüro zu betrachten, sondern auch an jedem anderen Ort, wie zum Beispiel einem Ort, den der Benutzer geschäftlich besucht.
  • Die Tracking-Unterstützungsvorrichtung, das Tracking-Unterstützungssystem und das Tracking-Unterstützungsverfahren nach der vorliegenden Erfindung kann eine Unterstützungsverarbeitung zum Reduzieren der Belastung einer überwachenden Person beim Verfolgen einer bestimmten Person, während des Betrachtens erfasster Bilder, die von mehreren Kameras aufgenommen und auf dem Bildschirm einer Anzeigevorrichtung angezeigt werden, angemessen ausführen, sodass die überwachende Person mit dem Verfolgen fortfahren kann, ohne den Blick auf die überwachte Person zu verlieren und aus diesem Grund sind sie als eine Tracking-Unterstützungsvorrichtung, ein Tracking-Unterstützungssystem und ein Tracking-Unterstützungsverfahren zum Unterstützen einer überwachenden Person beim Verfolgen eines zu verfolgenden bewegten Objektes durch Anzeigen eines Bildschirmes auf einer Anzeigevorrichtung, in dem mehrere Anzeigeausschnitte zum Anzeigen der erfassten Bilder angeordnet sind, die von den jeweiligen Kameras aufgenommen und in der Bildspeichervorrichtung gespeichert sind, nützlich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2005-012415 A [0004, 0005, 0007]
    • JP 2010-268186 A [0004, 0008]
    • JP 2007-272732 A [0006, 0009]

Claims (7)

  1. Tracking-Unterstützungsvorrichtung zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das verfolgt werden soll, durch Anzeigen eines Bildschirmes, in dem eine Vielzahl von Anzeigeansichten (43a43d) zum Anzeigen von erfassten Bildern, die von jeweiligen Kameras (1a1d) aufgenommen und in einer Bildspeichereinheit (2) gespeichert sind, in einem Planbild (41), das ein überwachtes Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras (1a1d) repräsentiert, angeordnet sind, auf einer Anzeigevorrichtung (7), mit: einer Einstelleinheit (23) für ein zu verfolgendes Ziel, die veranlasst, dass die erfassten Bilder, die in der Bildspeichereinheit gespeichert sind, in den Anzeigeansichten (43a43d) in Übereinstimmung mit einer bestimmten Suchbedingung, wie zum Beispiel einer Erfassungszeit, dargestellt werden und in Antwort auf eine Eingabeoperation, die von der überwachenden Person in einer der Anzeigeansichten zum Bezeichnen eines zu verfolgenden bewegten Objektes ausgeführt wird, das bezeichnete bewegte Objekt als ein zu verfolgendes Ziel einstellt; einer Kameraauswahleinheit (24), die basierend auf Nachverfolgungsinformation, die durch Verarbeiten der erfassten Bilder erhalten wird, jede der Kameras (1a1d), die vermutlich ein Bild des bewegten Objektes, das als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben, aus den Kameras (1a1d) mit Ausnahme von der Kamera auswählt, die der Anzeigeansicht, auf der das zu verfolgende Ziel bezeichnet wurde, zugeordnet ist; einer Bestätigungsbildpräsentationseinheit (31), die basierend auf der Nachverfolgungsinformation hinsichtlich des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, aus den erfassten Bildern, die von jeder von der Kameraauswahleinheit (24) ausgewählten Kamera aufgenommen sind, ein Bestätigungsbild extrahiert, das ein erfasstes Bild ist, das von jeder von der Kameraauswahleinheit (24) ausgewählten Kamera bei Beginn der Nachverfolgung des bewegten Objektes aufgenommen wurde, und von dem angenommen wird, dass es das bewegte Objekt enthält, und die Anzeigevorrichtung (7) veranlasst, einen Bestätigungsbildschirm für ein zu verfolgendes Ziel, auf dem das oder die Bestätigungsbilder angeordnet sind, anzuzeigen; und einer Wiedergabeeinheit (27), die eine kontinuierliche Wiedergabe ausführt, in der die erfassten Bilder, aus denen das oder die Bestätigungsbilder von der Bestätigungsbildpräsentationseinheit (31) extrahiert werden, sortiert nach dem Zeitverlauf in der Vielzahl der Anzeigeansichten (43a43d) angezeigt werden.
  2. Tracking-Unterstützungsvorrichtung nach Anspruch 1 ferner mit einer Bildschirmerzeugungseinheit (28) enthaltend: eine Kenntlichmachungseinheit (38) für ein zu verfolgendes Ziel, die eine erste Hervorhebung zum Hervorheben eines bewegten Objektrahmens (48), der mit dem bewegten Objekt verbunden ist, das als das zu verfolgende Ziel eingestellt ist, bereitstellt; und eine Anzeigeansichtskenntlichmachungseinheit (37), die eine zweite Hervorhebung zum Hervorheben eines Anzeigerahmens (45) bereitstellt, der mit der Anzeigeansicht verbunden ist, in der das bewegte Objekt, das als das zu verfolgende Ziel eingestellt ist, in einem Kontinuierlichewiedergabebildschirm, in dem die kontinuierliche Wiedergabe ausgeführt wird, aktuell erscheint.
  3. Tracking-Unterstützungsvorrichtung nach einem der Ansprüche 1 oder 2, wobei in einem Fall, in dem Nachverfolgen des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, in den Nachverfolgungsinformationen gestört ist, die Anzeigeansichtskenntlichmachungseinheit (37) gleichzeitig zwei der Anzeigeansichten kenntlich macht, die erfasste Bilder, die das bewegte Objekt, das als das zu verfolgende Ziel eingestellt ist, enthalten, jeweils vor und nach einem Zeitraum, in dem die Nachverfolgung gestört ist, anzeigen.
  4. Tracking-Unterstützungsvorrichtung nach einem der Ansprüche 1 bis 3, ferner mit: einer Kandidatenauswahleinheit (33), die basierend auf der Nachverfolgungsinformation, wenn ein Fehler in der Nachverfolgungsinformation hinsichtlich des bewegenden Objektes auftritt, das als das zu verfolgende Ziel eingestellt ist, als Kandidaten ein oder mehrere bewegte Objekte auswählt, die einen hohen Grad an Relevanz bezüglich des bewegten Objektes haben, das als das zu verfolgende Ziel eingestellt ist; einer Kandidatenbildpräsentationseinheit (34), die als Kandidatenbild(er) ein oder mehrere erfasste Bilder extrahiert, in denen das oder die bewegten Objekte, die als die Kandidaten ausgewählt sind, enthalten sind, und die Anzeigevorrichtung (7) zum Anzeigen eines Kandidatenauswahlbildschirmes veranlasst, in dem das oder die Kandidatenbilder angeordnet sind, so dass die überwachende Person auf dem Kandidatenauswahlbildschirm ein Kandidatenbild auswählt, in dem das bewegte Objekt, das als das zu verfolgendes Ziel bezeichnet ist, enthalten ist; und einer Nachverfolgungsinformationskorrektureinheit (35), die das zu verfolgende Ziel in das bewegte Objekt ändert, das in dem Kandidatenbild enthalten ist, das in dem Kandidatenauswahlbildschirm ausgewählt ist, und die Nachverfolgungsinformation hinsichtlich des bewegten Objektes korrigiert, das als das zu verfolgende Ziel eingestellt ist.
  5. Tracking-Unterstützungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei Verarbeitungen, die von der Kameraauswahleinheit (24) und der Wiedergabeeinheit (27) ausgeführt werden, mit Rücksicht auf Ereignisse ausgeführt werden, die vor, nach oder vor und nach einer Erfassungszeit eines bezeichneten Bildes für ein zu verfolgendes Ziel, auf dem die überwachende Person das zu verfolgende bewegte Objekt bezeichnet hat, auftreten.
  6. Tracking-Unterstützungssystem zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das verfolgt werden soll, durch Anzeigen eines Bildschirmes, in dem eine Vielzahl von Anzeigeansichten (43a43d) zum Anzeigen von erfassten Bildern, die von jeweiligen Kameras (1a1d) aufgenommen und in einer Bildspeichereinheit (2) gespeichert sind, in einem Planbild (41), das ein überwachtes Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras (1a1d) repräsentiert, angeordnet sind, auf einer Anzeigevorrichtung (7), mit: den Kameras (1a1d), die Bilder von einem überwachten Gebiet aufnehmen; der Anzeigevorrichtung (7), die den Bildschirm anzeigt; und einer Vielzahl von Informationsverarbeitungsvorrichtungen (3, 11, 12, 13), wobei die Vielzahl der Informationsverarbeitungsvorrichtungen (3, 11, 12, 13) gemeinsam enthalten: eine Nachverfolgungsverarbeitungseinheit (4, 5, 21), die ein oder mehrere bewegte Objekte, die auf den erfassten Bildern, die von den Kameras aufgenommen sind, detektiert wurden, nachverfolgt und Nachverfolgungsinformationen von jedem bewegten Objekt erzeugt; eine Einstelleinheit (23) für ein zu verfolgendes Ziel, die veranlasst, dass die erfassten Bilder, die in der Bildspeichereinheit gespeichert sind, in den Anzeigeansichten (43a43d) in Übereinstimmung mit einer bestimmten Suchbedingung, wie zum Beispiel einer Erfassungszeit, dargestellt werden und, in Antwort auf eine Eingabeoperation, die von der überwachenden Person an einer der Anzeigeansichten zum Bezeichnen eines zu verfolgenden bewegten Objektes ausgeführt wird, das bezeichnete bewegte Objekt als ein zu verfolgendes Ziel einstellt; eine Kameraauswahleinheit (24), die basierend auf der Nachverfolgungsinformation, die von der Nachverfolgungsverarbeitungseinheit erhalten wird, jede der Kameras (1a1d), die vermutlich ein Bild des bewegten Objektes, das als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben, aus den Kameras (1a1d) mit Ausnahme von der Kamera auswählt, die der Anzeigeansicht, auf der das zu verfolgende Ziel bezeichnet wurde, zugeordnet ist; eine Bestätigungsbildpräsentationseinheit (31), die basierend auf der Nachverfolgungsinformation hinsichtlich des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, aus den erfassten Bildern, die von jeder von der Kameraauswahleinheit (24) ausgewählt Kamera aufgenommen sind, ein Bestätigungsbild extrahiert, das ein erfasstes Bild ist, das von jeder von der Kameraauswahleinheit (24) ausgewählt Kamera zu Beginn der Nachverfolgung des bewegten Objektes aufgenommen wurde, und von dem angenommen wird, dass es das bewegte Objekt enthält, und die Anzeigevorrichtung (7) veranlasst, einen Bestätigungsbildschirm für ein zu verfolgendes Ziel, auf dem das oder die Bestätigungsbilder angeordnet sind, anzuzeigen; und eine Wiedergabeeinheit (27), die eine kontinuierliche Wiedergabe ausführt, in der die erfassten Bilder, aus denen das oder die Bestätigungsbilder von der Bestätigungsbildpräsentationseinheit (31) extrahiert werden, sortiert nach dem Zeitverlauf in der Vielzahl der Anzeigeansichten (43a43d) angezeigt werden.
  7. Tracking-Unterstützungsverfahren zum Unterstützen einer überwachenden Person beim Ausführen einer Aufgabe des Verfolgens eines bewegten Objektes, das verfolgt werden soll, durch Anzeigen eines Bildschirmes, in dem eine Vielzahl von Anzeigeansichten (43a43d) zum Anzeigen von erfassten Bildern, die von jeweiligen Kameras (1a1d) aufgenommen und in einer Bildspeichereinheit (2) gespeichert sind, in einem Planbild (41), das ein überwachtes Gebiet in Übereinstimmung mit einer tatsächlichen Anordnung der Kameras (1a1d) repräsentiert, angeordnet sind, auf einer Anzeigevorrichtung (7), mit: einem Schritt des Veranlassens des Anzeigens der erfassten Bilder, die in der Bildspeichereinheit (2) gespeichert sind, auf den Anzeigeansichten (43a43d), in Übereinstimmung mit einer bestimmten Suchbedingung, wie zum Beispiel einer Erfassungszeit, und in Antwort auf eine Eingabeoption zum Bezeichnen eines zu verfolgenden bewegten Objektes, die von der überwachenden Person an einer der Anzeigeansichten ausgeführt wird, zum Einstellen des bezeichneten bewegten Objektes als ein zu verfolgendes Ziel; einem Schritt des Auswählens basierend auf Nachverfolgungsinformation, die durch Verarbeiten der erfassten Bilder erhalten wird, von jeder der Kameras (1a1d), die vermutlich ein Bild des bewegten Objektes, das als das zu verfolgende Ziel bezeichnet ist, aufgenommen haben, aus den Kameras (1a1d) mit Ausnahme von der Kamera, die der Anzeigeansicht entspricht, auf der das zu verfolgende Ziel bezeichnet wurde; einem Schritt des Extrahierens basierend auf der Nachverfolgungsinformation hinsichtlich des bewegten Objektes, das als das zu verfolgende Ziel eingestellt ist, aus den erfassten Bilden, die von jeder Kamera aufgenommen sind, die in dem Schritt des Auswählens ausgewählt wurden, eines Bestätigungsbildes, das ein erfasstes Bild, das von jeder Kamera aufgenommen wird, die in dem Schritt des Auswählens zu Beginn des Nachverfolgens des bewegten Objektes ausgewählt wurde, und von dem angenommen wird, dass es das bewegte Objekt enthält, und Veranlassen der Anzeigevorrichtung einen Bestätigungsbildschirm für ein zu verfolgendes Ziel anzuzeigen, in dem das oder die Bestätigungsbilder angeordnet sind; und ein Schritt des Ausführens einer kontinuierlichen Wiedergabe, in der die erfassten Bilder, aus denen das oder die Bestätigungsbilder in dem Schritt des Extrahierens extrahiert sind, sortiert nach dem Zeitverlauf in der Vielzahl der Anzeigeansichten (43a43d) angezeigt sind.
DE102014213554.0A 2013-07-11 2014-07-11 Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren Active DE102014213554B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-145287 2013-07-11
JP2013145287A JP5506990B1 (ja) 2013-07-11 2013-07-11 追跡支援装置、追跡支援システムおよび追跡支援方法

Publications (2)

Publication Number Publication Date
DE102014213554A1 true DE102014213554A1 (de) 2015-01-15
DE102014213554B4 DE102014213554B4 (de) 2015-09-17

Family

ID=50941903

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014213554.0A Active DE102014213554B4 (de) 2013-07-11 2014-07-11 Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren

Country Status (6)

Country Link
US (1) US9357181B2 (de)
JP (1) JP5506990B1 (de)
CN (1) CN104284147B (de)
DE (1) DE102014213554B4 (de)
GB (1) GB2516172B (de)
RU (1) RU2565243C1 (de)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
AU2013204965B2 (en) 2012-11-12 2016-07-28 C2 Systems Limited A system, method, computer program and data signal for the registration, monitoring and control of machines and devices
JP6273685B2 (ja) 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP5683663B1 (ja) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
JP5834249B2 (ja) 2013-11-20 2015-12-16 パナソニックIpマネジメント株式会社 人物移動分析装置、人物移動分析システムおよび人物移動分析方法
US9488833B2 (en) 2014-02-07 2016-11-08 International Business Machines Corporation Intelligent glasses for the visually impaired
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
US9871830B2 (en) * 2014-10-07 2018-01-16 Cisco Technology, Inc. Internet of things context-enabled device-driven tracking
JP6128468B2 (ja) * 2015-01-08 2017-05-17 パナソニックIpマネジメント株式会社 人物追尾システム及び人物追尾方法
JP5999394B2 (ja) * 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6646815B2 (ja) 2015-03-04 2020-02-14 パナソニックIpマネジメント株式会社 人物追跡方法および人物追跡装置
JP6399356B2 (ja) * 2015-05-26 2018-10-03 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
TWI562642B (en) * 2015-06-24 2016-12-11 Vivotek Inc Image surveillance method and image surveillance device thereof
US9824723B1 (en) * 2015-08-27 2017-11-21 Amazon Technologies, Inc. Direction indicators for panoramic images
JP6268498B2 (ja) * 2015-08-27 2018-01-31 パナソニックIpマネジメント株式会社 警備システム及び人物画像表示方法
JP6643843B2 (ja) 2015-09-14 2020-02-12 オリンパス株式会社 撮像操作ガイド装置および撮像装置の操作ガイド方法
US10152652B2 (en) * 2015-09-24 2018-12-11 International Business Machines Corporation Selecting a device with visual confirmation in the internet of things
US9495763B1 (en) * 2015-09-28 2016-11-15 International Business Machines Corporation Discovering object pathways in a camera network
JP6284086B2 (ja) * 2016-02-05 2018-02-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
KR20180010042A (ko) * 2016-07-20 2018-01-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6206857B1 (ja) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
EP3291191B1 (de) * 2016-08-29 2019-10-09 Panasonic Intellectual Property Management Co., Ltd. System zur meldung verdächtiger personen und verfahren zur meldung verdächtiger personen
JP6733434B2 (ja) * 2016-09-02 2020-07-29 富士ゼロックス株式会社 情報表示システムおよび画像形成装置
TWI622024B (zh) * 2016-11-22 2018-04-21 Chunghwa Telecom Co Ltd 智慧影像式監測告警裝置
KR20180086662A (ko) * 2017-01-23 2018-08-01 한화에어로스페이스 주식회사 모니터링 장치 및 시스템
CN106934840B (zh) * 2017-03-02 2018-06-19 山东朗朗教育科技股份有限公司 一种教育云课实景图生成方法和装置
WO2019064947A1 (ja) * 2017-09-28 2019-04-04 京セラドキュメントソリューションズ株式会社 監視端末装置及び表示処理方法
WO2019070011A1 (ja) * 2017-10-05 2019-04-11 パナソニックIpマネジメント株式会社 移動体追跡装置及び移動体追跡方法
JP6969987B2 (ja) * 2017-11-15 2021-11-24 パナソニック株式会社 通信装置、通信システムおよび移動体追跡方法
WO2019100011A1 (en) 2017-11-17 2019-05-23 Divine Logic, Inc. Systems and methods for tracking items
RU2670429C1 (ru) * 2017-11-24 2018-10-23 ООО "Ай Ти Ви групп" Системы и способы отслеживания движущихся объектов на видеоизображении
RU2682315C1 (ru) * 2018-06-19 2019-03-19 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ видеосъемки телекамерой, установленной на наклонно-поворотной платформе
WO2020095399A1 (ja) * 2018-11-08 2020-05-14 ヤマハ発動機株式会社 部品実装装置
KR102614496B1 (ko) * 2019-08-09 2023-12-15 엘지전자 주식회사 Xr 디바이스 및 그 제어 방법
EP4049173A1 (de) 2019-10-25 2022-08-31 7-Eleven, Inc. Verfolgung von positionen unter verwendung eines skalierbaren positionsverfolgungssystems
JP2021096624A (ja) * 2019-12-17 2021-06-24 東芝テック株式会社 買物客管理装置、情報処理プログラム、買物客管理方法及び買物客管理システム
US11368991B2 (en) 2020-06-16 2022-06-21 At&T Intellectual Property I, L.P. Facilitation of prioritization of accessibility of media
US11233979B2 (en) 2020-06-18 2022-01-25 At&T Intellectual Property I, L.P. Facilitation of collaborative monitoring of an event
US11411757B2 (en) 2020-06-26 2022-08-09 At&T Intellectual Property I, L.P. Facilitation of predictive assisted access to content
US11184517B1 (en) 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
US11037443B1 (en) 2020-06-26 2021-06-15 At&T Intellectual Property I, L.P. Facilitation of collaborative vehicle warnings
JP2022011666A (ja) * 2020-06-30 2022-01-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US11356349B2 (en) 2020-07-17 2022-06-07 At&T Intellectual Property I, L.P. Adaptive resource allocation to facilitate device mobility and management of uncertainty in communications
US11768082B2 (en) 2020-07-20 2023-09-26 At&T Intellectual Property I, L.P. Facilitation of predictive simulation of planned environment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012415A (ja) 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2007272732A (ja) 2006-03-31 2007-10-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2010268186A (ja) 2009-05-14 2010-11-25 Panasonic Corp 監視画像表示装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
WO2004045215A1 (en) * 2002-11-12 2004-05-27 Intellivid Corporation Method and system for tracking and behavioral monitoring of multiple objects moving throuch multiple fields-of-view
US7242423B2 (en) * 2003-06-16 2007-07-10 Active Eye, Inc. Linking zones for object tracking and camera handoff
US7683940B2 (en) * 2003-09-12 2010-03-23 Canon Kabushiki Kaisha Streaming non-continuous video data
JP4759988B2 (ja) * 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
US20060238617A1 (en) * 2005-01-03 2006-10-26 Michael Tamir Systems and methods for night time surveillance
US8174572B2 (en) 2005-03-25 2012-05-08 Sensormatic Electronics, LLC Intelligent camera selection and object tracking
US20080130949A1 (en) 2006-11-30 2008-06-05 Ivanov Yuri A Surveillance System and Method for Tracking and Identifying Objects in Environments
JP4881766B2 (ja) 2007-03-06 2012-02-22 パナソニック株式会社 カメラ間連結関係情報生成装置
WO2009032366A2 (en) 2007-05-22 2009-03-12 Vidsys, Inc. Optimal routing of audio, video, and control data through heterogeneous networks
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
CN101803385A (zh) * 2007-09-23 2010-08-11 霍尼韦尔国际公司 跨多个关联视频屏动态跟踪闯入者
JP2009098774A (ja) * 2007-10-15 2009-05-07 Mitsubishi Electric Corp 人物追跡システム及び人物追跡方法及び人物追跡プログラム
WO2009122416A2 (en) * 2008-04-02 2009-10-08 Evt Technologies Ltd. Object content navigation
CN201248107Y (zh) * 2008-04-30 2009-05-27 深圳市飞瑞斯科技有限公司 主从式摄像机智能视频监控系统
US8457466B1 (en) 2008-09-29 2013-06-04 Videomining Corporation Videore: method and system for storing videos from multiple cameras for behavior re-mining
TWI391801B (zh) * 2008-12-01 2013-04-01 Inst Information Industry 接手視訊監控方法與系統以及電腦裝置
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
CN201718000U (zh) * 2010-07-16 2011-01-19 西安秦码软件科技有限公司 智能化动态场视频监控系统
GB2515926B (en) 2010-07-19 2015-02-11 Ipsotek Ltd Apparatus, system and method
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
CN102905122A (zh) * 2012-11-13 2013-01-30 北京航天福道高技术股份有限公司 一种监控系统可疑人员辅助跟踪方法
US20140240511A1 (en) * 2013-02-25 2014-08-28 Xerox Corporation Automatically focusing a spectral imaging system onto an object in a scene

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012415A (ja) 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2007272732A (ja) 2006-03-31 2007-10-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2010268186A (ja) 2009-05-14 2010-11-25 Panasonic Corp 監視画像表示装置

Also Published As

Publication number Publication date
GB201412204D0 (en) 2014-08-20
US20150016798A1 (en) 2015-01-15
JP2015019249A (ja) 2015-01-29
RU2565243C1 (ru) 2015-10-20
GB2516172B (en) 2015-11-04
JP5506990B1 (ja) 2014-05-28
CN104284147A (zh) 2015-01-14
US9357181B2 (en) 2016-05-31
GB2516172A (en) 2015-01-14
CN104284147B (zh) 2016-12-28
DE102014213554B4 (de) 2015-09-17

Similar Documents

Publication Publication Date Title
DE102014213554B4 (de) Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren
DE102014213556B4 (de) Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren
DE102014213553B4 (de) Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren
DE112016002373T5 (de) Tracking-support-vorrichtung, tracking-support-system und tracking-support-verfahren
DE112016000841T5 (de) Verfolgungsassistenzvorrichtung, verfolgungsassistenzsystem und verfolgungsassistenzverfahren
DE112017002821T5 (de) Verfahren, System und Computerprogrammprodukt zur interaktiven Identifizierung von gleichen Personen oder Objekten in Videoaufnahmen
DE112017003800T5 (de) Überwachungsunterstützungsvorrichtung, überwachungsunterstützungssystem und überwachungsunterstützungsverfahren
DE112016006156T5 (de) Verfolgungsunterstützungsvorrichtung, verfolgungsunterstützungssystem und verfolgungsunterstützungsverfahren
DE102015209138A1 (de) Überwachungsvorrichtung, Überwachungssystem und Überwachungsverfahren
DE112014001658T5 (de) Nachverfolgungsverarbeitungsvorrichtung und Nachverfolgungsverarbeitungssystem, das damit ausgestattet ist, und Nachverfolgungsverarbeitungsverfahren
DE112017006448T5 (de) System und Verfahren zum Anzeigen von interessierenden Objekten an einem Ereignisort
DE112012001591T5 (de) Verwalten von Datenverarbeitungssystemen mit Verwendung von erweiterter Realität
DE102007041893A1 (de) Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
DE112019001879T5 (de) Videoverarbeitungsvorrichtung, videoverarbeitungssystem undvideoverarbeitungsverfahren
DE102019102866A1 (de) Identifizierung eines Herstellungsteils unter Verwendung von Computervision und Maschinenlernen
DE102007024868A1 (de) Bildverarbeitungsvorrichtung, Überwachungssystem, Verfahren zur Erzeugung eines Szenenreferenzbildes sowie Computerprogramm
DE112017006487T5 (de) Verfahren und vorrichtung zum erzeugen eines suchmusters für einen ereignisort
DE112015005301T5 (de) Bildaufnahmevorrichtung, Aufzeichnungsvorrichtung und Bewegtbildausgabesteuervorrichtung
DE112018001440T5 (de) Aufenthaltszustandsanzeigesystem und Aufenthaltszustandsanzeigeverfahren
DE112016002252T5 (de) Automatische erkennung von panoramagesten
CH710280A1 (de) Verfahren sowie Auswertegerät zur Auswertung von Signalen einer LED-Zustandsanzeige.
WO2015028294A1 (de) Überwachungsanlage sowie verfahren zur darstellung eines überwachungsbereichs
DE102010031429A1 (de) Verfahren zum Bereitstellen eines Kombinations-Videos
DE112020003171T5 (de) Verfahren und Vorrichtung zum Verknüpfen von Zielen
DE112020004921T5 (de) Vorausschauende virtuelle rekonstruktion physischer umgebungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final