DE102017122554A1 - Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium - Google Patents

Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium Download PDF

Info

Publication number
DE102017122554A1
DE102017122554A1 DE102017122554.4A DE102017122554A DE102017122554A1 DE 102017122554 A1 DE102017122554 A1 DE 102017122554A1 DE 102017122554 A DE102017122554 A DE 102017122554A DE 102017122554 A1 DE102017122554 A1 DE 102017122554A1
Authority
DE
Germany
Prior art keywords
path
subject
input
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017122554.4A
Other languages
English (en)
Inventor
Futoshi Hachimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102017122554A1 publication Critical patent/DE102017122554A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

Eine Eingabe von Pfadinformationen wird empfangen, und eine Verfolgungsverarbeitung wird bezüglich eines Subjekts, das in einem durch eine ausgewählte Bildaufnahmeeinrichtung aufgenommen Videobild enthalten ist, basierend auf den Pfadinformationen durchgeführt.

Description

  • HINTERGRUND
  • Gebiet
  • Die vorliegende Offenbarung bezieht sich auf eine Informationenverarbeitungsvorrichtung, ein Informationenverarbeitungsverfahren und ein Speichermedium.
  • Beschreibung des Standes der Technik
  • Die japanische Patentanmeldungsveröffentlichung Nr. 2015-19248 beschreibt eine Verfolgungsunterstützungsvorrichtung zum Unterstützen bei einer Überwachung einer Person, die dabei ist, ein Verfolgungszielsubjekt zu verfolgen. Die Verfolgungsunterstützungsvorrichtung umfasst eine Verfolgungszieleinstelleinheit zum Einstellen eines designierten Subjekts als ein Verfolgungsziel gemäß einer durch die Überwachungsperson durchgeführten Eingabeoperation zum Designieren des Verfolgungszielsubjekts auf einen Anzeigeabschnitt in einem Überwachungsbildschirm.
  • ZUSAMMENFASSUNG
  • Gemäß einem Aspekt der vorliegenden Offenbarung umfasst eine Informationenverarbeitungsvorrichtung eine Empfangseinheit, die konfiguriert ist, um eine Eingabe über Informationen über einen Pfad zu empfangen, eine Auswahleinheit, die konfiguriert ist, um eine Bildaufnahmeeinrichtung entsprechend dem Pfad aus einer Vielzahl von Bildaufnahmeeinrichtungen basierend auf den empfangenen Informationen über den Pfad auszuwählen, und eine Verarbeitungseinheit, die konfiguriert ist, um ein in einem durch die ausgewählte Bildaufnahmeeinrichtung aufgenommenen Bild enthaltenes Subjekt zu verfolgen.
  • Weitere Merkmale werden anhand der nachfolgenden Beschreibung von exemplarischen Ausführungsbeispielen mit Bezugnahme auf die anhängenden Zeichnungen ersichtlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein Beispiel einer Hardwarekonfiguration eines Verwaltungsservers.
  • 2 veranschaulicht ein Beispiel einer Softwarekonfiguration des Verwaltungsservers.
  • 3 ist ein Ablaufdiagramm, das ein Beispiel der Hauptinformationenverarbeitung veranschaulicht.
  • 4 veranschaulicht ein Beispiel einer Bereichskarte um einen Überwachungszielbereich.
  • 5 veranschaulicht ein Beispiel einer Kamerakarte, in der Kamerapositionsinformationen auf der Bereichskarte überlagert sind.
  • 6 veranschaulicht ein Beispiel eines Zustands, in dem eine Bewegungspfadbestimmung abgeschlossen ist.
  • 7 veranschaulicht ein Beispiel eines Falls, in dem ein Abweichungsbereich α ein signifikanter Bereich ist.
  • 8 veranschaulicht ein Beispiel eines Zustands, in dem eine Vielzahl von Kameras ausgewählt ist.
  • 9 veranschaulicht ein Beispiel einer Softwarekonfiguration eines Verwaltungsservers.
  • 10 ist ein Ablaufdiagramm, das ein Beispiel einer Informationenverarbeitung veranschaulicht.
  • 11 ist ein Ablaufdiagramm, das ein Beispiel eines Prozesses des Zeichnens eines Bewegungspfades veranschaulicht.
  • 12 veranstaltet ein Beispiel eines Zustands, in dem das Zeichnen einer vorhergesagten Bewegungspfadlinie abgeschlossen ist.
  • 13 ist ein Ablaufdiagramm, das ein Beispiel eines Prozesses des Analysierens eines vorhergesagten Bewegungspfades veranschaulicht.
  • 14 veranschaulicht ein Beispiel eines Zustands, in dem eine Vielzahl von Kameras ausgewählt ist.
  • 15 ist ein Ablaufdiagramm, das ein Beispiel eines Prozesses des Zeichnens einer Freihandlinie veranschaulicht.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Nachstehend wird ein exemplarisches Ausführungsbeispiel mit Bezugnahme auf die Zeichnungen beschrieben.
  • Ein Subjektverfolgungssystem umfasst einen Verwaltungsserver 1 und eine Vielzahl von Kameras 2.
  • 1 veranschaulicht ein Beispiel einer Hardwarekonfiguration des Verwaltungsservers 1.
  • Die Hardwarekonfiguration des Verwaltungsservers 1 umfasst eine zentrale Verarbeitungseinheit (CPU) 101, einen Speicher 102, eine Kommunikationseinrichtung 103, eine Anzeigeeinrichtung 104 und eine Eingabeeinrichtung 105. Die CPU 101 steuert den Verwaltungsserver 1. Der Speicher 102 speichert Daten, Programme, etc., die bei einer Verarbeitung durch die CPU 101 zu verwenden sind.
  • Die Eingabeeinrichtung 105 ist eine Maus, ein Knopf, etc. zum Eingeben von Nutzeroperationen in den Verwaltungsserver 1. Die Anzeigeeinrichtung 104 ist beispielsweise eine Flüssigkristallanzeigeeinrichtung, etc. zum Anzeigen von Ergebnissen der durch die CPU 101 durchgeführten Verarbeitung, etc. Die Kommunikationseinrichtung 103 verbindet den Verwaltungsserver 1 mit einem Netzwerk. Die CPU 101 führt eine Verarbeitung basierend auf in dem Speicher 102 gespeicherten Programmen aus, um Softwarekonfigurationen des Verwaltungsservers 1, die in den 2 und 9 veranschaulicht sind, sowie in Ablaufdiagrammen in den 3, 10, 11, 13 und 15, die nachstehend beschrieben sind, veranschaulichte Prozesse zu realisieren.
  • 2 veranschaulicht ein Beispiel einer Softwarekonfiguration des Verwaltungsservers 1.
  • Die Softwarekonfiguration des Verwaltungsservers 1 umfasst eine Kamerasteuerungsverwaltungseinheit 10, eine Speichereinheit 11, eine Steuerungseinheit 12, eine Kartenverwaltungseinheit 13, eine Kamerapositionsverwaltungseinheit 14, eine Anzeigeeinheit 15, eine Eingabeeinheit 16, eine Bewegungspfadanalyseeinheit 17, eine Verfolgungskameraauswahlverwaltungseinheit 18, eine Netzwerkeinheit 19 und eine Verfolgungsverarbeitungseinheit 20. Die Kamerasteuerungsverwaltungseinheit 10 steuert und verwaltet das Aufnehmen von Bildrahmen durch die Kameras 2, einen Empfang von Bildrahmen von den Kameras 2, etc.
  • De Speichereinheit 11 zeichnet auf, speichert, etc. in dem Speicher 102 Bildrahmen von der Kamerasteuerungsverwaltungseinheit 10 sowie Bewegtbilddaten, die durch sukzessive Komprimierung von Bildrahmen erzeugt werden.
  • Die Steuerungseinheit 12 steuert den Verwaltungsserver 1.
  • Die Kartenverwaltungseinheit 13 veranschaulicht eine Bereichskarte als eine Umgebung, in der sich die Kameras 2 befinden.
  • Die Kamerapositionsverwaltungseinheit 14 erzeugt und verwaltet Positionsinformationen, die die Positionen der Vielzahl von Kameras 2 spezifizieren, in der durch die Kartenverwaltungseinheit 13 verwalteten Bereichskarte.
  • Die Anzeigeeinheit 15 zeigt über die Anzeigeeinrichtung 104 die durch die Kartenverwaltungseinheit 13 verwalteten Bereichskarte sowie Kamerapositionsinformationen über die Positionen der Kameras 2 überlagert auf der Bereichskarte an.
  • Die Eingabeeinheit 16 gibt in die Steuerungseinheit 12 eine Verfolgungspfadanweisung ein, die auf der angezeigten Bereichskarte basierend auf einer mit der Eingabeeinrichtung 105, wie etwa einer Maus, durchgeführten Nutzeroperation eingegeben wird.
  • Die Bewegungspfadanalyseeinheit 17 analysiert einen Bewegungspfad basierend auf den durch die Eingabeeinheit 16 eingegebenen Informationen.
  • Die Verfolgungskameraauswahlverwaltungseinheit 18 wählt mindestens eine der Kamera(s) 2, die für eine Verfolgung zu verwenden sind, basierend auf einem Ergebnis der durch die Bewegungspfadanalyseeinheit 17 durchgeführten Analyse aus und verwaltet die ausgewählte(n) Kamera(s) 2.
  • Die Netzwerkeinheit 19 vermittelt ein Senden und Empfangen von Anweisungen und Videobildern zwischen dem Verwaltungsserver 1 und den Kameras 2, einem weiteren Kameraverwaltungsserver, oder einem Videoverwaltungssoftware-(VMS-)Server über das Netzwerk.
  • Die Verfolgungsverarbeitungseinheit 20 empfängt Videobilder von der/den Kamera(s) 2, die durch die Verfolgungskameraauswahlverwaltungseinheit 18 ausgewählt werden, über die Netzwerkeinheit 19 und führt eine Verfolgungsverarbeitung unter Verwendung der Videobilder durch.
  • 3 ist ein Ablaufdiagramm, das ein Beispiel einer Informationenverarbeitung veranschaulicht.
  • In Schritt S101 erzeugt die Kartenverwaltungseinheit 13 eine Bereichskarte (4) hinsichtlich eines Überwachungszielbereichs.
  • In Schritt S102 bezieht die Steuerungseinheit 12 von der Kamerapositionsverwaltungseinheit 14 die Positionen der Vielzahl von Kameras 2, die sich in dem Überwachungszielbereich befinden, sowie Bildaufnahmerichtungsinformationen über die Richtungen, in die die Kameras 2 jeweils Bilder aufnehmen. Die Steuerungseinheit 12 erzeugt eine Kamerakarte (5), wobei die Kamerapositionsinformationen auf der Bereichskarte (4), die den Überwachungszielbereich veranschaulichen, überlagert ist, und speichert die Kamerakarte zusammen mit der Bereichskarte in dem Speicher 102 über die Speichereinheit 11.
  • Die Steuerungseinheit 12 kann Positionsinformationen über die Kameras 2 als Kamerapositionsinformationen und Bildaufnahmerichtungsinformationen über die Kameras 2 über eine manuelle Nutzereingabe von Daten über die Eingabeeinrichtung 105 für jede der Kameras 2 beziehen. Die Steuerungseinheit 12 kann von der Kamerasteuerungsverwaltungseinheit 10 über die Netzwerkeinheit 19 verschiedene Typen von Installationsinformationen von den jeweiligen Zielkameras 2 beziehen, und kann Kamerapositionsinformationen und Bildaufnahmerichtungsinformationen in Echtzeit gleichzeitig mit der Analyse von durch die jeweiligen Zielkameras 2 aufgenommenen Videobildern erzeugen.
  • In Schritt S103 zeigt die Steuerungseinheit 12 auf der Anzeigeeinrichtung 104 über die Anzeigeeinheit 15 die in dem Speicher 102 gespeicherte Bereichskarte (4) an.
  • Die Steuerungseinheit 12 kann die Kamerakarte (5) auf der Anzeigeeinrichtung 104 anzeigen. Jedoch kann ein Nutzer, der die Kamerapositionen gesehen hat, dazu gebracht werden, einen vorhergesagten Pfad basierend auf den Kamerapositionen zu zeichnen. Um diese Situation zu verhindern, zeigt die Steuerungseinheit 12 im gegenwärtigen exemplarischen Ausführungsbeispiel die Bereichskarte (4) auf der Anzeigeeinrichtung 104 an.
  • Der User weist mit der Eingabeeinrichtung 105 zwei Punkte als einen Startpunkt und einen Endpunkt eines Verfolgungszielbewegungspfades basierend auf der auf der Anzeigeeinrichtung 104 angezeigten Bereichskarte (4) zu. In Schritt S104 empfängt die Steuerungseinheit 12 eine Zuweisung von zwei Punkten.
  • Im gegenwärtigen exemplarischen Ausführungsbeispiel ist der Startpunkt ein Punkt A und der Endpunkt ist ein Punkt B.
  • In Schritt S105 bestimmt die Steuerungseinheit 12, ob eine Zuweisung von zwei Punkten empfangen wurde. Wenn die Steuerungseinheit 12 bestimmt, dass eine Zuweisung von zwei Punkten empfangen wurde (JA in Schritt S105), fährt die Verarbeitung zu Schritt S106 fort. Wenn die Steuerungseinheit 12 bestimmt, dass eine Zuweisung der zwei Punkte nicht empfangen wurde (NEIN in Schritt S105), kehrt die Verarbeitung zu Schritt S104 zurück.
  • Die in Schritt S104 oder den Schritten S104 und S105 durchgeführte Verarbeitung ist ein Beispiel einer Empfangsverarbeitung zum Empfangen einer Eingabe von Informationen über einen Bewegungspfad eines Verfolgungszielsubjekts.
  • In Schritt S106, nachdem die zwei Punkte als der Startpunkt und der Endpunkt des Verfolgungszielbewegungspfades zugewiesen wurden, berechnet die Bewegungspfadanalyseeinheit 17 einen kürzesten Pfad zwischen den beiden Punkten und eine Vielzahl von Pfaden basierend auf dem kürzesten Pfad.
  • Die Berechnungsformel ist L + L × α.
  • In der Berechnungsformel ist L der kürzeste Pfad und α ist ein Abweichungsbereich (zulässiger Bereich) des Verfolgungszielbewegungspfades. Der Wert von α wird zuvor bestimmt. Der Wert von α kann beispielsweise als Zeit oder Pfadlänge zugewiesen werden. Im Allgemeinen weisen die Zeit und die Pfadlänge eine proportionale Beziehung auf. Jedoch gilt in einem Fall, in dem sich eine Beförderungseinrichtung wie etwa ein Laufband, eine Rolltreppe, oder Lift auf dem Pfad befindet, weisen die Zeit und die Pfadlänge nicht immer eine professionelle Beziehung auf. Aufgrund dessen gibt es verschiedene Weisen des Zuweisens des Werts von α. Beispielsweise wird der Wert von α durch Zuweisen nur der Zeit, nur der Pfadlänge, oder sowohl der Zeit als auch der Pfadlänge zugewiesen.
  • 6 veranschaulicht einen Zustand, in dem die Bewegungspfadbestimmung abgeschlossen ist. In 6 sind vier kürzeste Pfade (5A, 5B, 5C, 5D) zwischen den beiden Punkten, den Punkten A und B, veranschaulicht. Im gegenwärtigen exemplarischen Ausführungsbeispiel werden nur Straßen auf dem Boden berücksichtigt. Während der Wert von α in dem in 6 veranschaulichten Beispiel keinen Beitrag liefert, weist der Wert von α im Falle eines komplizierten Pfades eine Signifikanz auf.
  • Beispiele eines möglichen Falles, in dem der Wert von α als Pfadlänge zugewiesen wird, umfassen eine Abkürzung (7A) in einem Park und eine Untergrundpassage (7B) wie in 7, oder einen hängenden Gehweg. Beispiele eines möglichen Falles, in dem der Wert von α als Zeit zugewiesen wird, umfassen einen Fall, in dem sich eine Beförderungseinrichtung (Förderband, Rolltreppe, Lift, Straßenbahn, Gondel, Fahrrad, Motorrad, Bus, Zug, Taxi) oder dergleichen auf dem Pfad befindet.
  • Die Steuerungseinheit 12 führt eine nachstehend beschriebene Verfolgungskameraauswahlverarbeitung unter Verwendung der Verfolgungskameraauswahlverwaltungseinheit 18 basierend auf Ergebnissen der Bewegungspfadbestimmung von der Bewegungspfadanalyseeinheit 17 aus.
  • In Schritt S107 führt die Verfolgungskameraauswahlverwaltungseinheit 18 Übereinstimmungsberechnungen bezüglich der Kameras 2, die Bilder der Bewegungspfade als Videobilder aufnehmen, basierend auf der in der Speichereinheit 11 gespeicherten Kamerakarte (5) durch, um eine Vielzahl von Kameras 2 auszuwählen.
  • 8 veranschaulicht einen Zustand, in dem die Kameras 2 ausgewählt werden.
  • In 8 sind die Kameras 6a bis 6h die ausgewählten acht Kameras 2.
  • Während es Fälle gibt, in denen die Blickfelder der Kameras 2 nicht überlappen, verwendet die Verfolgungsverarbeitung im gegenwärtigen exemplarischen Ausführungsbeispiel einen Algorithmus, der eine Verfolgung ohne überlappende Sichtfelder von Kameras ermöglicht.
  • Während im gegenwärtigen exemplarischen Ausführungsbeispiel angenommen wird, dass das Verfolgungsziel eine Person ist, ist das Verfolgungsziel nicht auf eine Person beschränkt, und kann ein beliebiges Verfolgungsziel (Subjekt) sein, wenn eine Merkmalsgröße, anhand der das Verfolgungsziel (Subjekt) identifizierbar ist, aus Videobildern extrahierbei ist. Das Verfolgungsziel (Subjekt) kann etwas anderes sein als eine Person, wie etwa ein Auto, Motorrad, Fahrrad, Tier, etc.
  • Die Steuerungseinheit 12 weist die durch die Verfolgungskameraauswahlverwaltungseinheit 18 ausgewählte Vielzahl von Kameras 2 zu, bewirkt die Kamerasteuerungsverwaltungseinheit 10, Videobilder von den jeweiligen Kameras 2 über die Netzwerkeinheit 19 von der VMS zu empfangen, und zeichnet die empfangenen Videobilder in dem Speicher 102 über die Speichereinheit 11 auf.
  • In Schritt S108 analysiert die Verfolgungsverarbeitungseinheit 20 die von der Vielzahl von Kameras 2 empfangenen und in dem Speicher 102 über die Speichereinheit 11 aufgezeichneten Videobilder und startet, eine Subjektverfolgungsverarbeitung auszuführen.
  • Alternativ, anstatt des Zuweisens der durch die Verfolgungskameraauswahlverwaltungseinheit 18 ausgewählten Vielzahl von Kameras 2, kann die Steuerungseinheit 12 die Vielzahl von Videobildern auswählen und zuweisen, die Vielzahl von ausgewählten und zugewiesenen Videobildern von der VMS beziehen und die bezogenen Videobilder in dem Speicher 102 über die Speichereinheit 11 aufzeichnen.
  • Während eine Vielzahl von Videobildern analysiert wird, erfasst die Verfolgungsverarbeitungseinheit 20 Subjekte (Personen), die auf dem Bewegungspfad auftreten, extrahiert eine oder mehrere Merkmalsgrößen der jeweiligen Subjekte und vergleicht die Merkmalsgrößen der jeweiligen Subjekte. Wenn der Grad einer Übereinstimmung der Merkmalsgröße der Subjekte größer oder gleich einem vorbestimmten Grad ist, bestimmt die Verfolgungsverarbeitungseinheit 20, dass die Subjekte die gleichen sind, und startet eine Verfolgungsverarbeitung.
  • Die Verfolgungsverarbeitungseinheit 20 verwendet eine Technologie, die ermöglicht, das gleiche Subjekt (Person) zu verfolgen, auch wenn durch die Kameras 2 aufgenommene Videobilder nicht den gleichen Ort zeigen (auch wenn die Blickfelder sich nicht überlappen). Die Verfolgungsverarbeitungseinheit 20 kann eine Merkmalsgröße eines Gesichts bei der Verarbeitung der Verfolgung des gleichen Subjekts (Person) verwenden. Um die Genauigkeit der Verfolgungsverarbeitung zu verbessern, kann die Verfolgungsverarbeitungseinheit 20 andere Informationen wie etwa Farbinformationen als eine Merkmalsgröße des Subjekts verwenden.
  • Gemäß dem gegenwärtigen exemplarischen Ausführungsbeispiel werden zur Verfolgung benötigte Kameras automatisch ausgewählt und einfach durch Zuweisen (Festlegen) von zwei Punkten als ein Startpunkt und ein Endpunkt eingestellt.
  • 9 veranschaulicht ein Beispiel der Softwarekonfiguration des Verwaltungsservers 1.
  • Die Softwarekonfiguration dieses Verwaltungsservers 1 in 9 ist gleich der Softwarekonfiguration des Verwaltungsservers 1 in 2, außer dass die Bewegungspfadanalyseeinheit 17 in 2 auf eine Analyseeinheit eines vorhergesagten Bewegungspfades 17b geändert ist, und eine Bewegungspfadverwaltungseinheit 21 hinzugefügt ist, sodass eine Beschreibung von gleichen Funktionen weggelassen wird.
  • Die Analyseeinheit eines vorhergesagten Bewegungspfades 17b analysiert einen vorhergesagten Bewegungspfad basierend auf durch den Nutzer über die Eingabeeinheit 16 eingegebenen Informationen.
  • Die Bewegungspfadverwaltungseinheit 21 akkumuliert und verwaltet, als Daten, einen Bewegungspfad, auf dem eine Verfolgungsverarbeitung zuvor durch die Verfolgungsverarbeitungseinheit 20 durchgeführt wurde.
  • 10 ist ein Ablaufdiagramm, das ein Beispiel einer Informationenverarbeitung entsprechend der in 9 veranschaulichten Konfiguration veranschaulicht.
  • Schritte S201 bis S203, von der Kartenerzeugungsverarbeitung zu der Kartenanzeigeverarbeitung, sind gleich den Schritten S101 bis S103 in 3, sodass eine Beschreibung der Schritte S201 bis S203 weggelassen wird.
  • In Schritt S204 zeichnet die Steuerungseinheit 12, auf der Anzeigeeinrichtung 104 über die Anzeigeeinheit 15, einen vorhergesagten Bewegungspfad, entlang dem vorhergesagt wird, dass sich ein Verfolgungsziel bewegt, basierend auf durch den Nutzer über die Eingabeeinrichtung 105 eingegebenen Informationen, etc. basierend auf der Bereichskarte (4), die auf der Anzeigeeinrichtung 104 angezeigt wird.
  • Die Informationenverarbeitung des Zeichnens eines vorhergesagten Bewegungspfades basierend auf Nutzeroperationen wird nachstehend detailliert mit Bezugnahme auf 11 beschrieben.
  • in Schritt S211 zeigt die Steuerungseinheit 12 die in 4 veranschaulichte Bereichskarte auf der Anzeigeeinrichtung 104 über die Anzeigeeinheit 15 an. Der Nutzer gibt eine vorhergesagte Bewegungspfadlinie durch Bewegen eines Maus-(Computermaus-)Zeigegeräts, das ein Beispiel der Eingabeeinrichtung 105 ist, auf der Bereichskarte (4) auf der Anzeigeeinrichtung 104 ein.
  • Im gegenwärtigen exemplarischen Ausführungsbeispiel werden eine Freihandeingabe und Anweisungspunkteingabe, bei der Anweisungspunkte durch eine Linie verbunden werden, als Verfahren beschrieben, die als ein Verfahren des Eingebens einer vorhergesagten Bewegungspfadlinie auswählbar sind. Jedoch ist das Verfahren des Eingebens einer vorhergesagten Bewegungspfadlinie nicht auf die Freihandeingabe und die Anweisungspunkteingabe beschränkt.
  • In Schritt S212 bestimmt die Steuerungseinheit 12, ob die Freihandeingabe als das Verfahren des Eingebens einer vorhergesagten Bewegungspfadlinie ausgewählt ist. Wenn die Steuerungseinheit 12 bestimmt, dass die Freihandeingabe ausgewählt ist (JA in Schritt S212), fährt die Verarbeitung zu Schritt S213 fort. Wenn die Steuerungseinheit 12 bestimmt, dass die Freihandeingabe nicht ausgewählt ist (NEIN in Schritt S212), fährt die Verarbeitung zu Schritt S214 fort.
  • Nach Klicken auf den Anfangspunkt mittels einer Maus, die ein Beispiel der Eingabeeinrichtung 105 ist, führt den Nutzer die Maus, um eine vorhergesagte Bewegungspfadlinie auf der auf der Anzeigeeinrichtung 104 angezeigten Bereichskarte (4) einzugeben. Alternativ kann der Nutzer eine vorhergesagte Bewegungspfadlinie durch Klicken auf den Anfangspunkt, Bewegen der Maus und anschließend Klicken auf den Endpunkt eingeben.
  • In Schritt S213 zeichnet die Steuerungseinheit 12 eine vorhergesagte Bewegungspfadlinie auf der Bereichskarte (4) über die Anzeigeeinheit 15 basierend auf der eingegebenen vorhergesagten Bewegungspfadlinie. Die Steuerungseinheit 12 kann einen Bewegungsbereich der Maus auf einen Bereich einschränken, der einen Bereich ausschließt, in den die Maus aufgrund des Vorhandenseins eines Objekts nicht bewegt werden kann, z. B. ein Gebäude, etc. Die Steuerungseinheit 12 kann beispielsweise einen Eingang eines Gebäudes als ein Bewegungsziel einstellen, um dem Mauszeiger zu ermöglichen, sich auf das Gebäude zu bewegen.
  • In Schritt S214 bestimmt die Steuerungseinheit 12, ob die Anweisungspunkteingabe als das Verfahren des Eingebens einer vorhergesagten Bewegungspfadlinie ausgewählt ist. Wenn die Steuerungseinheit 12 bestimmt, dass die Anweisungspunkteingabe ausgewählt ist (JA in Schritt S214), fährt die Verarbeitung zu Schritt S215 fort. Wenn die Steuerungseinheit 12 bestimmt, dass die Anweisungspunkteingabe nicht ausgewählt ist (NEIN in Schritt S214), fährt die Verarbeitung zu Schritt S216 fort.
  • In Schritt S215, nachdem der Nutzer auf den Anfangspunkt mit der Maus klickt, die ein Beispiel der Eingabeeinrichtung 105 ist, zeichnet die Steuerungseinheit 12 eine Linie über die Anzeigeeinheit 15, um die Linie zu erweitern, basierend auf dem Mauszeiger bis zu einem nächsten Klick. Wenn der Nutzer auf einen nächsten Punkt klickt, wird die gezeichnete Linie bestimmt. Anschließend wiederholt die Steuerungseinheit 12 die Operation des Erweiterns der Linie basierend auf dem Mauszeiger bis zu einem nächsten Klick, und beendet schließlich die Operation bei einem Doppelklick der Maus, um eine vorhergesagte Bewegungspfadlinie über die Anzeigeeinheit 15 zu zeichnen. Der Nutzer gibt eine Linie, die eine Vielzahl von Punkten verbindet, als einen vorhergesagten Bewegungspfad ein. Eine Linie, die Punkte verbindet, ist nicht auf eine gerade Linie eingeschränkt und kann eine Linie sein, die gebogen ist, um einem Objekt, z. B. Gebäude, etc., auszuweichen. Die Analyseeinheit eines vorhergesagten Bewegungspfades 17b kann eine Analyseverarbeitung eines vorhergesagten Bewegungspfades lediglich durch Zuweisen einer Vielzahl von Punkten ohne Verbinden der Punkte ausführen. Die Ausführung der Analyseverarbeitung eines vorhergesagten Bewegungspfades ist gleich der vorstehend beschriebenen Verarbeitung des Suchens nach einem kürzesten Pfad und einem Pfad basierend auf dem kürzesten Pfad, sodass eine Beschreibung der Ausführung der Analyseverarbeitung eines vorhergesagten Bewegungspfades weggelassen wird.
  • Nachdem das Zeichnen der vorhergesagten Bewegungspfadlinie abgeschlossen ist, drückt der Nutzer einen Zeichnen-Abschlussknopf am Ende, um das Zeichnen der vorhergesagten Bewegungspfadlinie zu beenden. In Schritt S216 bestimmt die Steuerungseinheit 12, ob das Zeichnen abgeschlossen ist. Wenn die Steuerungseinheit 12 bestimmt, dass das Zeichnen abgeschlossen ist (JA in Schritt S216), endet der in dem Ablaufdiagramm in 11 veranschaulichte Prozess. Wenn die Steuerungseinheit 12 bestimmt, dass das Zeichnen nicht abgeschlossen ist (NEIN in Schritt S216), kehrt die Verarbeitung zu Schritt S212 zurück. Die Steuerungseinheit 12 bestimmt, ob das Zeichnen abgeschlossen ist, basierend darauf, ob der Zeichnen-Abschlussknopf gedrückt wurde.
  • 12 veranschaulicht einen Zustand, in dem das Zeichnen der vorhergesagten Bewegungspfadlinie abgeschlossen ist.
  • In 12 ist eine Linie 12A die durch den Nutzer gezeichnete vorhergesagte Bewegungspfadlinie.
  • In Schritt S205 bestimmt die Steuerungseinheit 12, ob das Zeichnen der vorhergesagten Bewegungspfadlinie abgeschlossen ist. Wenn die Steuerungseinheit 12 bestimmt, dass das Zeichnen der vorhergesagten Bewegungspfadlinie abgeschlossen ist (JA in Schritt S205), fährt die Verarbeitung zu Schritt S206 fort. Wenn die Steuerungseinheit 12 bestimmt, dass das Zeichnen der vorhergesagten Bewegungspfadlinie nicht abgeschlossen ist (NEIN in Schritt S205), kehrt die Verarbeitung zu Schritt S204 zurück.
  • Die in Schritt S204 oder in den Schritten S204 und S205 durchgeführte Verarbeitung ist ein Beispiel einer Empfangsverarbeitung des Empfangens einer Eingabe von Informationen über einen Bewegungspfad eines Verfolgungszielsubjekts.
  • In Schritt S206 führt die Steuerungseinheit 12 eine Analyseverarbeitung eines vorhergesagten Bewegungspfades unter Verwenden der Analyseeinheit eines vorhergesagten Bewegungspfades 17b aus. Nachstehend, um die Beschreibung zu vereinfachen, führt die Steuerungseinheit 12 anstatt der Analyseeinheit eines vorhergesagten Bewegungspfades 17b die Analyseverarbeitung eines vorhergesagten Bewegungspfades aus.
  • Die erste Analyseverarbeitung ist die Verarbeitung des Analysierens der Absicht eines Nutzers basierend auf einer Korrespondenzbeziehung zwischen der durch den Nutzer gezeichneten vorhergesagten Bewegungspfadlinie und der Bereichskarte (4).
  • Beispielsweise bestimmt im Fall einer breiten Straße die Steuerungseinheit 12 die Linie als einen Pfad, der durch ein Gebäude oder einen Gehweg verläuft, basierend darauf, ob die Linie gezeichnet wurde, um eine rechte oder linke Kante zuzuweisen. Im Fall einer kurvigen Linie bestimmt die Steuerungseinheit 12 die Linie als einen Pfad zum Stoppen an einem Geschäft, einem Büro, etc., die sich an der Position eines Scheitelpunkts der Kurve befindet. Die Steuerungseinheit 12 kann die Absicht eines Nutzers durch Anzeigen eines Optionsknopfs zum Spezifizieren, dass der Pfad entlang jeder Seite der Straße verlaufen kann, beziehen. In einem Fall, in dem eine Linie mehrmals gezeichnet wird, kann die Steuerungseinheit 12 die Linie als einen wichtigen Pfad bestimmen, und einen Gewichtungswert erhöhen, der der Kameraposition der nächsten Verarbeitung zugewiesen wird.
  • Als die zweite Analyseverarbeitung führt beispielsweise die Steuerungseinheit 12 eine Vorhersageanalyse unter Verwendung eines vorhergehenden Bewegungspfades des Verfolgungsziels, bezüglich dessen eine vorhergehende Verfolgungsverarbeitung ausgeführt wurde, durch. Der vorhergehende Bewegungspfad des Verfolgungsziels, bezüglich dessen eine vorhergehende Verfolgungsverarbeitung ausgeführt wird, ist in dem Speicher 102 über die Speichereinheit 11 basierend auf der Verwaltung durch die Bewegungspfadverwaltungseinheit 21 aufgezeichnet.
  • Die Informationenverarbeitung, die unter Verwendung eines vorhergehenden Bewegungspfades durchgeführt wird, wird nachstehend mit Bezugnahme auf 13 beschrieben.
  • In Schritt S221 bezieht sich die Steuerungseinheit 12 auf den vorhergehenden Bewegungspfad.
  • In Schritt S222 vergleicht die Steuerungseinheit 12 einen Bewegungspfad, der durch den referenzierten vorhergehenden Bewegungspfad angeben ist, mit dem durch den Nutzer gezeichneten vorhergesagten Bewegungspfad, und analysiert die Bewegungspfade, um einen Abgleich durchzuführen. Die Steuerungseinheit 12 extrahiert eine vorbestimmte Anzahl (z. B. zwei) von top-vorhergesagten Bewegungspfaden, die bestimmt wurden, einen Übereinstimmungsgrad (Grad einer Übereinstimmung) aufzuweisen, der größer oder gleich einem eingestellten Wert ist, als ein Ergebnis der Abgleichsverarbeitung.
  • In Schritt S223 bestimmt die Steuerungseinheit 12, ob die Extraktion des vorhergesagten Bewegungspfades abgeschlossen ist. Wenn die Steuerungseinheit 12 bestimmt, dass die Extraktion des vorhergesagten Bewegungspfades abgeschlossen ist (JA in Schritt S223), wird der in dem Ablaufdiagramm in 13 veranschaulichte Prozess beendet. Wenn die Steuerungseinheit 12 bestimmt, dass die Extraktion des vorhergesagten Bewegungspfades nicht abgeschlossen ist (NEIN in Schritt S223), fährt die Verarbeitung zu Schritt S224 fort.
  • In Schritt S224 ändert die Steuerungseinheit 12 den Übereinstimmungsgrad in Schritt S222. Beispielsweise verringert die Steuerungseinheit 12 jedes Mal, wenn Schritt S224 durchgeführt wird, den Übereinstimmungsgrad um 10%.
  • Anschließend führt die Steuerungseinheit 12 eine nachstehend beschriebene Verfolgungskameraauswahlverarbeitung unter Verwendung der Verfolgungskameraauswahlverwaltungseinheit 18 basierend auf einem Ergebnis der Analyse des vorhergesagten Bewegungspfades von der Analyseeinheit eines vorhergesagten Bewegungspfades 17b aus.
  • In Schritt S207 führt die Steuerungseinheit 12 eine Abgleichsberechnung basierend auf der in der Speichereinheit 11 gespeicherten Kamerakarte (5) durch, und wählt eine Vielzahl von Kameras 2 aus, die Videobilder der vorhergesagten Bewegungspfadlinien einfangen.
  • 14 veranschaulicht einen Zustand, in dem die Vielzahl von Kameras 2 ausgewählt ist.
  • In 14 sind Pfade 13A und 13B die vorhergesagten Bewegungspfade, die zusätzlich als ein Ergebnis der Analyse des vorhergesagten Bewegungspfades ausgewählt werden.
  • In 14 sind die Kameras 13a bis 13g die ausgewählten sieben Kameras 2.
  • Schritt S208 der Verfolgungsstartverarbeitung ist gleich Schritt S108 in 3, sodass eine Beschreibung des Schritts S208 weggelassen wird.
  • Gemäß der vorstehenden Konfiguration führt der Nutzer keine Operation des Auswählens eines Verfolgungsziels auf einem Einstellbildschirm des Verwaltungsservers 1 durch. Anstatt dessen stellt der Nutzer, als eine Linie, einen vorhergesagten Pfad ein, entlang dem vorhergesagt wird, dass sich das Verfolgungsziel bewegt. Der Verwaltungsserver 1 berücksichtigt, wie die Fahrtlinie gezeichnet wird sowie den vorhergehenden Bewegungspfad, um eine Verfolgungsverarbeitung bezüglich einer Vielzahl von Pfaden zu ermöglichen.
  • 15 ist ein Ablaufdiagramm, das Details der in Schritt S213 in 11 durchgeführten Verarbeitung veranschaulicht.
  • Der Nutzer, der die Freihandeingabe ausgewählt hat, bewegt den Mauszeiger, der ein Beispiel der Eingabeeinrichtung 105 ist, zu einer Anfangsposition eines vorhergesagten Bewegungspfades zur Verfolgung, und klickt auf die Anfangsposition. In Schritt S311 empfängt die Steuerungseinheit 12 den Klick auf den Anfangspunkt durch den Nutzer über die Eingabeeinheit 16.
  • Anschließend führt der Nutzer eine sogenannte Ziehoperation durch, ohne den Klick der Maus zu lösen, um eine vorhergesagte Bewegungspfadlinie durch Bewegen des Mauszeigers auf der auf der Anzeigeeinheit 15 angezeigten Bereichskarte (4) zu zeichnen.
  • Es kann ein Fall vorliegen, in dem der Nutzer eine Operation zum Stoppen des Mauszeigers für eine vorbestimmte Zeit, beispielsweise an einer Ecke wie etwa einer Kreuzung, während die Maus gezogen wird, um eine vorhergesagte Bewegungspfadlinie zu zeichnen, durchführt.
  • In Schritt S312 bestimmt die Steuerungseinheit 12, ob der Mauszeiger gestoppt wird, basierend auf über die Eingabeeinheit 16 empfangenen Informationen. Wenn die Steuerungseinheit 12 bestimmt, dass der Mauszeiger gestoppt ist (JA in Schritt S312), fährt die Verarbeitung zu Schritt S313 fort. Wenn die Steuerungseinheit 12 bestimmt, dass der Mauszeiger nicht gestoppt ist (NEIN in Schritt S312), wird Schritt S312 wiederholt.
  • In Schritt S313 misst die Steuerungseinheit 12 die Stoppzeit des Mauszeigers. Während die Stoppzeit des Mauszeigers im gegenwärtigen exemplarischen Ausführungsbeispiel gemessen wird, ist das Messziel nicht auf die Stoppzeit beschränkt und kann Informationen über eine Operation bezüglich des Mauszeigers sein, die eine Zögern des Nutzers angibt.
  • In Schritt S314 bestimmt die Steuerungseinheit 12, ob der Mauszeiger startet, sich wiederum zu bewegen, basierend auf einer Eingabe über die Eingabeeinheit 16, etc. Wenn die Steuerungseinheit 12 bestimmt, dass der Mauszeiger startet, sich wiederum zu bewegen (JA in Schritt S314), fährt die Verarbeitung zu Schritt S315 fort. Wenn die Steuerungseinheit 12 bestimmt, dass der Mauszeiger nicht startet, sich wiederum zu bewegen (NEIN in Schritt S314), fährt die Verarbeitung zu Schritt S316 fort.
  • In Schritt S315 zeichnet die Steuerungseinheit 12 die Stoppposition und die Stoppzeit des Mauszeigers in dem Speicher 102 über die Speichereinheit 11 auf. Der Mauszeiger wird gestoppt und wiederholt bewegt, und eine Maustaste wird am Endpunkt gelöst, um das Zeichnen zu beenden.
  • In Schritt S316 bestimmt die Steuerungseinheit 12, ob das Ziehen beendet ist, basierend auf einer Eingabe von der Eingabeeinheit 16. Wenn die Steuerungseinheit 12 bestimmt, dass das Ziehen beendet ist (JA in Schritt S316), endet der in dem Ablaufdiagramm in 15 veranschaulichte Prozess. Wenn die Steuerungseinheit 12 bestimmt, dass das Ziehen nicht beendet ist (NEIN in Schritt S316), kehrt die Verarbeitung zu Schritt S313 zurück.
  • Anschließend führt die Steuerungseinheit 12 die nachfolgende Verarbeitung als eine Analyseverarbeitung eines vorhergesagten Bewegungspfades aus.
  • Die Steuerungseinheit 12 analysiert, ob die Stoppposition des Mauszeigers in der Zeichnung der vorhergesagten Bewegungspfadlinie eine angemessene Wegkreuzung in der Bereichskarte (4) ist.
  • Die Steuerungseinheit 12 analysiert die Stoppzeit des Mauszeigers an der Stoppposition, die als eine Wegkreuzung bestimmt wird, und extrahiert eine vorbestimmte Anzahl (z. B. zwei) von Bewegungspfaden, auf denen der Mauszeiger für die längste Zeit gestoppt wird. Insbesondere extrahiert die Steuerungseinheit 12 eine vorbestimmte Anzahl (z. B. zwei) von Bewegungspfaden, auf denen der Mauszeiger für die längste Zeit an einer Wegkreuzung gestoppt wird, aus Bewegungspfaden, die gelöscht oder geändert wurden, während der Nutzer die vorhergesagte Bewegungspfadlinie von dem Anfangspunkt zu dem Endpunkt zeichnet. Die vorbestimmte Anzahl (z. B. zwei) von Bewegungspfaden, auf denen der Mauszeiger für die längste Zeit an Wegkreuzungen gestoppt wird, sind ein Beispiel von Bewegungspfaden, die basierend auf einem Zeichnungszustand aus während der Freihandeingabe korrigierten oder geänderten Bewegungspfaden ausgewählt werden.
  • Während die Steuerungseinheit 12 zwei Top-Bewegungspfade aus Bewegungspfaden, auf denen der Mauszeiger für die längste Zeit gestoppt wird, im gegenwärtigen exemplarischen Ausführungsbeispiel extrahiert, ist die Anzahl von zu extrahierenden Bewegungspfaden nicht auf zwei beschränkt. Weil es schwierig ist, angezeigte Bewegungspfade zu sehen, werden zwei Bewegungspfade von oben beschrieben.
  • Die Steuerungseinheit 12 wählt eine Kamera(s) 2 basierend auf drei Bewegungspfaden umfassend die zwei extrahierten Bewegungspfade und dem durch den Nutzer gezeichneten vorhergesagten Bewegungspfad aus. Die anschließende Verarbeitung von der Verfolgungskameraauswahlverarbeitung bis zur Verfolgungsverarbeitung ist gleich der vorstehend Beschriebenen, sodass eine Beschreibung der anschließenden Verarbeitung weggelassen wird.
  • Wie vorstehend beschrieben wird die Zeichnung des Nutzers gemessen und analysiert, um einen bezüglich der Absicht des Nutzers geeigneteren vorhergesagten Bewegungspfad zu extrahieren, wird eine Kamera(s) 2 ausgewählt und eingestellt, und eine Verfolgungsverarbeitung wird durchgeführt.
  • Das vorstehend beschriebene exemplarische Ausführungsbeispiel ist nicht als einschränkend zu betrachten, und Modifikationen, wie nachstehend beschrieben, können durchgeführt werden.
  • Während zum Beispiel die Verfahren des Zuweisens eines Pfads durch Zuweisen von zwei Punkten oder durch Zeichnen einer Linie vorstehend beschrieben wurden, können beliebige andere Verfahren verwendet werden. Beispielsweise kann ein Pfad durch Zuweisen eines Straßennamens, Längengrads und Breitengrads, oder einer Brücke zum Passieren (Brücke zum Nichtpassieren) zugewiesen werden.
  • Weitere Beispiele umfassen ein Verfahren des Zuweisens eines Pfades durch Zuweisen einer Straße (Gehweg, Fahrbahn, Fahrradweg, Wanderweg, Unterführung, überdachte Straße, Straße, entlang der eine Person ohne Regenschirm gehen kann), Zuweisen eines Pfades auf einem zweiten Stock oberhalb des Bodens, Zuweisen eines Pfades ohne eine Niveaudifferenz, Zuweisen eines Pfades mit einem Handlauf, oder Zuweisen eines Pfades, entlang dem ein Rollstuhl bewegbar ist.
  • Während die Maus verwendet wird, um einen vorhergesagten Pfad auf der Bereichskarte zu zeichnen, ist die Eingabeeinrichtung nicht auf die Maus beschränkt. Beispielsweise kann die Bereichskarte auf einer Touchpanelanzeige angezeigt werden, wo ein Finger oder ein Stift verwendet werden können, um einen vorhergesagten Pfad zu zeichnen.
  • Ein Strichcode kann in einem realen Raum angebracht sein, um einen vorhergesagten Pfad zuzuweisen.
  • Während ein vorhergesagter Pfad nur entlang einer Straße außerhalb eines Gebäudes auf der Bereichskarte gezeichnet wird, ist das Zeichnen eines vorhergesagten Pfades nicht auf das vorstehend beschriebene Zeichnen beschränkt. Beispielsweise kann ein vorhergesagter Pfad, der durch ein Gebäude, ein Geschäft, oder einen Park verläuft, gezeichnet werden. In diesem Fall kann der Plan eines Gebäudes oder eines Parks angezeigt werden, und ein detaillierter vorhergesagter Pfad kann gezeichnet werden, um anzugeben, wie sich ein vorhergesagter Pfad innerhalb des Gebäudes oder Parks bewegt.
  • Während die Steuerungseinheit 12 eine Abgleichsberechnung durchführt und die Kameras 2 auswählt, die vorhergesagte Bewegungspfadlinien als Videobilder basierend auf der in dem Speicher 102 über die Speichereinheit 11 gespeicherten Kamerakarte (5) einfangen, kann die Steuerungseinheit 12 die Bildaufnahmeparameter der Kameras 2 während des Auswählens der Vielzahl der Kameras 2 ändern, sodass Bilder der vorhergesagten Bewegungspfadlinien aus vorhergesagten Videobildern mit den geänderten Bildaufnahmeparametern aufgenommen werden können.
  • Eine Merkmalsgröße eines Kopfabschnitts kann als Informationen zum Identifizieren eines Verfolgungszielsubjekts verwendet werden. Zusätzlich zu einer Merkmalsgröße eines Kopfabschnitts kann eine Merkmalsgröße eines Gesichts, Skeletts, Kleidung oder Gangart einer Person verwendet werden.
  • Die anzuzeigende Bereichskarte kann eine dreidimensionale (3D-)Karte sein.
  • Die Funktionen des Verwaltungsservers 1 können beispielsweise durch eine Vielzahl von Cloud-Computern implementiert werden.
  • Während die Steuerungseinheit 12 die Vielzahl von Kameras 2 auswählt und eine Verfolgungsverarbeitung unter Verwendung von durch die Vielzahl von ausgewählten Kameras 2 aufgenommenen Videobildern ausführt, ist die Verarbeitung nicht auf dieses Beispiel beschränkt. Die Steuerungseinheit 12 des Verwaltungsservers 1 kann eine Vielzahl von kombinierten Videobildern durch Kombinieren von durch die Vielzahl von Kameras 2 aufgenommenen Videobildern erzeugen, und anschließend die Vielzahl von erzeugten Videobildern zur Verwendung auswählen und zuweisen.
  • In der Informationenverarbeitung gemäß den vorstehend beschriebenen exemplarischen Ausführungsbeispielen kann das Einstellen des Verfolgens durchgeführt werden, bevor ein Verfolgungszielsubjekt auf einer Überwachungskamera erscheint, ohne Durchführen einer Operation des Bestimmens eines Verfolgungsziels durch Betrachten eines Verwaltungsbildschirms am Start des Einstellens eines Verfolgens. Dies stellt ein Subjektverfolgungseinstellungsverfahren bereit, das eine einfache Kameraauswahl zum Zeitpunkt des Verfolgens ermöglicht.
  • Weitere Ausführungsbeispiele
  • Ausführungsbeispiel(e) können ebenso durch einen Computer eines Systems oder einer Vorrichtung, der computerausführbare Anweisungen ausliest und ausführt (z. B. ein oder mehrere Programme), die in einem Speichermedium (das ebenso vollständig als "nichttransitorisches computerlesbares Speichermedium" bezeichnet werden kann) realisiert werden, um die Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele durchzuführen, und/oder der einen oder mehrere Schaltkreise (z. B. anwendungsspezifische integrierte Schaltung (ASIC)) zum Durchführen der Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele umfasst, sowie durch ein Verfahren, das durch den Computer des Systems oder der Vorrichtung durch beispielsweise Auslesen und Ausführen der computerausführbaren Anweisungen aus dem Speichermedium zum Durchführen der Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele und/oder Steuern des einen oder der mehreren Schaltkreise, um die Funktion des einen oder der mehreren vorstehend beschriebenen Ausführungsbeispiele durchzuführen, durchgeführt wird, realisiert werden. Der Computer kann einen oder mehrere Prozessoren (beispielsweise zentrale Verarbeitungseinheit (CPU), Mikroverarbeitungseinheit (MPU)) aufweisen, und kann ein Netzwerk von separaten Computern oder separaten Prozessoren umfassen, um die computerausführbaren Anweisungen auszulesen und auszuführen. Die computerausführbaren Anweisungen können dem Computer beispielsweise aus einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann beispielsweise eines oder mehrere einer Festplatte, eines Schreib-Lese-Speichers (RAM), eines Lesespeichers (ROM), eines Speichers von verteilten Computersystemen, einer optischen Diskette (wie etwa eine Compact-Disk (CD), Digital Versatile Disc (DVD) oder Blu-ray Disc (BD)TM), einer Flashspeichereinrichtung, einer Speicherkarte, und dergleichen umfassen.
  • Während exemplarische Ausführungsbeispiele beschrieben wurden, sollte verstanden sein, dass die Erfindung nicht auf die offenbarten exemplarischen Ausführungsbeispiele beschränkt ist. Der Umfang der nachfolgenden Patentansprüche ist gemäß der breitesten Interpretation auszulegen, um all solche Modifikationen und äquivalente Strukturen und Funktionen zu umfassen.
  • Eine Eingabe von Pfadinformationen wird empfangen, und eine Verfolgungsverarbeitung wird bezüglich eines Subjekts, das in einem durch eine ausgewählte Bildaufnahmeeinrichtung aufgenommen Videobild enthalten ist, basierend auf den Pfadinformationen durchgeführt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015-19248 [0002]

Claims (19)

  1. Informationenverarbeitungsvorrichtung, mit: einer Empfangseinheit, die konfiguriert ist, um eine Eingabe von Informationen über einen Pfad zu empfangen; einer Auswahleinheit, die konfiguriert ist, um eine Bildaufnahmeeinrichtung entsprechend dem Pfad aus einer Vielzahl von Bildaufnahmeeinrichtungen basierend auf den empfangenen Informationen über den Pfad auszuwählen; und einer Verarbeitungseinheit, die konfiguriert ist, um ein Subjekt zu verfolgen, das in einem durch die ausgewählte Bildaufnahmeeinrichtung aufgenommen Videobild enthalten ist.
  2. Informationenverarbeitungsvorrichtung gemäß Anspruch 1, weiterhin mit: einer Erzeugungseinheit, die konfiguriert ist, um eine Bereichskarte über einen Überwachungszielbereich zu erzeugen; und einer Anzeigeeinheit, die konfiguriert ist, um die erzeugte Bereichskarte anzuzeigen, wobei die Empfangseinheit eine Eingabe von Informationen über einen Pfad des zu verfolgenden Subjekts auf der angezeigten Bereichskarte empfängt.
  3. Informationenverarbeitungsvorrichtung gemäß Anspruch 1, weiterhin mit: einer ersten Erzeugungseinheit, die konfiguriert ist, um eine Bereichskarte über einen Überwachungszielbereich zu erzeugen; einer zweiten Erzeugungseinheit, die konfiguriert ist, um eine Kamerakarte mit Kamerapositionsinformationen, die auf der erzeugten Bereichskarte überlagert ist, zu erzeugen; und einer Anzeigeeinheit, die konfiguriert ist, um die erzeugte Kamerakarte anzuzeigen, wobei die Empfangseinheit eine Eingabe von Informationen über einen Pfad des zu verfolgenden Subjekts auf der angezeigten Kamerakarte empfängt.
  4. Informationenverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Empfangseinheit eine Eingabe von zwei Punkten, die ein Startpunkt und ein Endpunkt des Pfades sind, als die Informationen über den Pfad des Subjekts empfängt, und wobei die Auswahleinheit zumindest eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden zwischen den beiden Punkten als den Pfad des Subjekts basierend auf den empfangenen eingegebenen zwei Punkten auswählt.
  5. Informationenverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Empfangseinheit eine Eingabe eines Anweisungspunkts des Pfades als die Informationen über den Pfad des Subjekts empfängt, und wobei die Auswahleinheit eine Bildaufnahmeeinrichtung entsprechend dem Pfad des zu verfolgenden Subjekts basierend auf der empfangenen Eingabe eines Anweisungspunktes einer Vielzahl von Pfaden auswählt.
  6. Informationenverarbeitungsvorrichtung gemäß Anspruch 5, wobei die Auswahleinheit mindestens eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden des zu verfolgenden Subjekts basierend auf einem Vergleich zwischen einem vorhergesagten Pfad basierend auf dem eingegebenen Anweisungspunkt und einem vorhergehenden Pfad auswählt.
  7. Informationenverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Empfangseinheit eine Freihandeingabe des Pfades als die Informationen über den Pfad des Subjekts empfängt, und wobei die Auswahleinheit eine Bildaufnahmeeinrichtung entsprechend dem Pfad des Subjekts basierend auf der empfangenen Freihandeingabe des Pfades auswählt.
  8. Informationenverarbeitungsvorrichtung gemäß Anspruch 7, wobei die Auswahleinheit mindestens eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden des Subjekts basierend auf einem Vergleich zwischen einem vorhergesagten Pfad basierend auf der Freihandeingabe und einem vorhergehenden Pfad auswählt.
  9. Informationenverarbeitungsvorrichtung gemäß Anspruch 7, wobei die Auswahleinheit mindestens eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden des Subjekts basierend auf einem Vergleich zwischen einem vorhergesagten Pfad basierend auf der Freihandeingabe und einem Pfad, der basierend auf einem Zeichnungszustand aus während der Freihandeingabe korrigierten oder geänderten Pfaden ausgewählt wird, auswählt.
  10. Informationenverarbeitungsverfahren, mit: Empfangen einer Eingabe von Informationen über einen Pfad; Auswählen einer Bildaufnahmeeinrichtung entsprechend dem Pfad aus einer Vielzahl von Bildaufnahmeeinrichtungen basierend auf den empfangenen Informationen; und Verfolgen eines Subjekts, das in einem durch die ausgewählte Bildaufnahmeeinrichtung aufgenommenen Videobild enthalten ist.
  11. Informationenverarbeitungsverfahren gemäß Anspruch 10, weiterhin mit: Erzeugen einer Bereichskarte über einen Überwachungszielbereich; und Anzeigen der erzeugten Bereichskarte, wobei bei dem Empfangen eine Eingabe von Informationen über einen Pfad des zu verfolgenden Subjekts auf der angezeigten Bereichskarte empfangen wird.
  12. Informationenverarbeitungsverfahren gemäß Anspruch 10, weiterhin mit: Erzeugen einer Bereichskarte über einen Überwachungszielbereich; Erzeugen einer Kamerakarte, in der Kamerapositionsinformationen über die erzeugte Bereichskarte überlagert sind; und Anzeigen der erzeugten Kamerakarte, wobei bei dem Empfangen eine Eingabe von Informationen über einen Pfad des zu verfolgenden Subjekts auf der angezeigten Kamerakarte empfangen wird.
  13. Informationenverarbeitungsverfahren gemäß Anspruch 10, wobei bei dem Empfangen eine Eingabe von zwei Punkten, die ein Startpunkt und ein Endpunkt des Pfades sind, als die Informationen über den Pfad des Subjekts empfangen werden, und wobei bei dem Auswählen zumindest eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden zwischen den zwei Punkten als der Pfad des Subjekts basierend auf den empfangenen eingegebenen zwei Punkten ausgewählt wird.
  14. Informationenverarbeitungsverfahren gemäß Anspruch 10, wobei bei dem Empfangen eine Eingabe eines Anweisungspunkts des Pfades als die Informationen über den Pfad des Subjekts empfangen wird, und wobei bei dem Auswählen eine Bildaufnahmeeinrichtung entsprechend dem Pfad des zu verfolgenden Subjekts basierend auf der empfangenen Eingabe eines Anweisungspunktes einer Vielzahl von Pfaden ausgewählt wird.
  15. Informationenverarbeitungsverfahren gemäß Anspruch 14, wobei bei dem Auswählen zumindest eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden des zu verfolgenden Subjekts basierend auf einem Vergleich zwischen einem vorhergesagten Pfad basierend auf dem eingegebenen Anweisungspunkt und einem vorhergehenden Pfad ausgewählt wird.
  16. Informationenverarbeitungsverfahren gemäß Anspruch 10, wobei bei dem Empfangen eine Freihandeingabe des Pfades als die Informationen über den Pfad des Subjekts empfangen wird, und wobei bei dem Auswählen eine Bildaufnahmeeinrichtung entsprechend dem Pfad des Subjekts basierend auf der empfangenen Freihandeingabe des Pfades ausgewählt wird.
  17. Informationenverarbeitungsverfahren gemäß Anspruch 16, wobei bei dem Auswählen zumindest eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden des Subjekts basierend auf einem Vergleich zwischen einem vorhergesagten Pfad basierend auf der Freihandeingabe und einem vorhergehenden Pfad ausgewählt wird.
  18. Informationenverarbeitungsverfahren gemäß Anspruch 16, wobei bei dem Auswählen zumindest eine Bildaufnahmeeinrichtung entsprechend einer Vielzahl von Pfaden des Subjekts basierend auf einem Vergleich zwischen einem vorhergesagten Pfad basierend auf der Freihandeingabe und einem Pfad, der basierend auf einem Zeichnungszustand aus während der Freiheitseingabe korrigierten oder geänderten Pfaden ausgewählt wird, ausgewählt wird.
  19. Nichttransitorisches Speichermedium, das ein Programm zum Bewirken eines Computers, um ein Verfahren auszuführen, speichert, wobei das Verfahren aufweist: Empfangen einer Eingabe von Informationen über einen Pfad; Auswählen einer Bildaufnahmeeinrichtung entsprechend dem Pfad aus einer Vielzahl von Bildaufnahmeeinrichtungen basierend auf den empfangenen Informationen; und Verfolgen eines Subjekts, das in einem durch die ausgewählte Bildaufnahmeeinrichtung aufgenommenen Videobild enthalten ist.
DE102017122554.4A 2016-09-30 2017-09-28 Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium Withdrawn DE102017122554A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-193702 2016-09-30
JP2016193702A JP6740074B2 (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
DE102017122554A1 true DE102017122554A1 (de) 2018-04-05

Family

ID=61623406

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017122554.4A Withdrawn DE102017122554A1 (de) 2016-09-30 2017-09-28 Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium

Country Status (5)

Country Link
US (1) US20180097991A1 (de)
JP (1) JP6740074B2 (de)
KR (1) KR20180036562A (de)
CN (1) CN107888872A (de)
DE (1) DE102017122554A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828708B2 (ja) * 2018-03-29 2021-02-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
JP7374632B2 (ja) * 2019-07-09 2023-11-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015019248A (ja) 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4195991B2 (ja) * 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
JP4759988B2 (ja) * 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
CN101995256A (zh) * 2009-08-11 2011-03-30 宏达国际电子股份有限公司 行程规划方法、装置及所使用的计算机程序产品
CN102223473A (zh) * 2010-04-16 2011-10-19 鸿富锦精密工业(深圳)有限公司 摄像装置及利用其动态追踪特定物体的方法
CN102263933B (zh) * 2010-05-25 2013-04-10 浙江宇视科技有限公司 智能监控的实现方法和装置
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8743205B2 (en) * 2011-08-10 2014-06-03 Nice Systems Ltd. System and method for semantic video content analysis
US9532095B2 (en) * 2012-11-29 2016-12-27 Fanvision Entertainment Llc Mobile device with smart gestures
JP2015002553A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理システムおよびその制御方法
JP6270410B2 (ja) * 2013-10-24 2018-01-31 キヤノン株式会社 サーバ装置、情報処理方法及びプログラム
JP2015094977A (ja) * 2013-11-08 2015-05-18 株式会社東芝 電子機器及び方法
CN103955494B (zh) * 2014-04-18 2017-11-03 大唐联智信息技术有限公司 目标对象的搜索方法、装置及终端
TWI578781B (zh) * 2014-10-21 2017-04-11 群暉科技股份有限公司 藉助於全景地圖來管理一監視系統之方法與裝置
CN105450991A (zh) * 2015-11-17 2016-03-30 浙江宇视科技有限公司 一种追踪方法及装置
US10341617B2 (en) * 2016-03-23 2019-07-02 Purdue Research Foundation Public safety camera identification and monitoring system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015019248A (ja) 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Also Published As

Publication number Publication date
CN107888872A (zh) 2018-04-06
JP6740074B2 (ja) 2020-08-12
JP2018056915A (ja) 2018-04-05
US20180097991A1 (en) 2018-04-05
KR20180036562A (ko) 2018-04-09

Similar Documents

Publication Publication Date Title
DE102014210820B4 (de) Verfahren zum Nachweis von großen und Passagierfahrzeugen von festen Kameras
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE102013216892B4 (de) Standortbestimmung für ein Objekt unter Verwendung von visuellen Daten
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102014206704B4 (de) Aktualisierung der kalibrierung einer verkehrskamera unter verwendung einer szenenanalyse
EP2034461B1 (de) Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
DE102014211692A1 (de) Anhängeridentifizierung
DE112017007050T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE112017004302T5 (de) Fahrerunterstützungssystem zum Bestimmen einer Position eines Fahrzeugs
DE112018008077T5 (de) Globale Kartenerstellung unter Verwendung lokaler bordeigener Karten, die durch Flottenbewegungsbahnen und -beobachtungen erstellt wurden
DE102018116036A1 (de) Training eines tiefen konvolutionellen neuronalen Netzwerks für individuelle Routen
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE112014006670T5 (de) Anzeigegerät für ein informationsüberlagertes bild, anzeigeprogramm für ein informationsüberlagertes bild und verfahren für ein informationsüberlagertes bild
DE202015009139U1 (de) Bildmodifikation
WO2011117170A1 (de) Verfahren zur visualisierung von aktivitätsschwerpunkten in überwachungsszenen
DE102014113817A1 (de) Vorrichtung und Verfahren zur Erkennung eines Objekts in Einem Bild
EP2549408A1 (de) Verfahren zur Detektion und Klassifikation von Objekten
DE102017122554A1 (de) Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium
DE102015211871A1 (de) Objekterkennungsvorrichtung
DE102019123005A1 (de) System und verfahren zur anzeige des objektbewegungsschemas
DE102014202503A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Abstands eines Fahrzeugs zu einem verkehrsregelnden Objekt
DE102021206075A1 (de) Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge
DE112019006107T5 (de) Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
DE112019007857T5 (de) Bewegungsanalysesystem und bewegungsanalyseprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee