DE102017109106B4 - Überwachungssystem und Videoanzeigeverfahren - Google Patents

Überwachungssystem und Videoanzeigeverfahren Download PDF

Info

Publication number
DE102017109106B4
DE102017109106B4 DE102017109106.8A DE102017109106A DE102017109106B4 DE 102017109106 B4 DE102017109106 B4 DE 102017109106B4 DE 102017109106 A DE102017109106 A DE 102017109106A DE 102017109106 B4 DE102017109106 B4 DE 102017109106B4
Authority
DE
Germany
Prior art keywords
camera
masking
video
recorded
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017109106.8A
Other languages
English (en)
Other versions
DE102017109106A1 (de
Inventor
Hidetoshi Kinoshita
Hiroshi Yazaki
Takamitsu Arai
Marie Kanda
Satoshi Nakano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016122095A external-priority patent/JP6098964B1/ja
Priority claimed from JP2016122093A external-priority patent/JP6099025B1/ja
Priority claimed from JP2016122094A external-priority patent/JP6098963B1/ja
Priority claimed from JP2016122092A external-priority patent/JP6112436B1/ja
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of DE102017109106A1 publication Critical patent/DE102017109106A1/de
Application granted granted Critical
Publication of DE102017109106B4 publication Critical patent/DE102017109106B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

Überwachungssystem, das aufweist:
eine Vielzahl von Kameras, die Aufnahmebereiche aufnehmen und geeignet sind, ein Maskieren zum Ändern wenigstens eines Teils eines bewegten Objektes, das in einem aufgenommenen Video des Aufnahmebereiches erscheint, zu einem Maskenbild durchzuführen; und
eine Informationsverarbeitungsvorrichtung, die eine Einstellungsinformation bewahrt, die ein Ausführen oder Nichtausführen des Maskierens der Kamera für jede Kamera angibt,
wobei die Informationsverarbeitungsvorrichtung in einem Fall, in dem das Ausführen des Maskierens in der einen Kamera festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens in einer Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, erlangt wird, auf einem Monitor anzeigt und in einem Fall, in dem das Nichtausführen des Maskierens in einer anderen Kamera, die von der einen Kamera der Vielzahl von Kameras verschieden ist, festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens auf dem von der anderen Kamera aufgenommenen Video in der Informationsverarbeitungsvorrichtung erlangt wird, auf dem Monitor anzeigt oder das von der anderen Kamera aufgenommene Video ohne das aufgenommene Video zu ändern auf dem Monitor anzeigt.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft ein Überwachungssystem und ein Videoanzeigeverfahren, die ein bearbeitetes Video ausgeben, das erlangt wird, nachdem ein Maskieren zum Verändern eines Bildbereiches eines bewegten Objektes (beispielsweise einer Person), das in einem aufgenommenen Video eines Überwachungsbereiches erkannt wird, zu einem Maskenbild durchgeführt wird, um zu verursachen, dass das bewegte Objekt nicht zu bestimmen ist.
  • Beschreibung des Standes der Technik
  • Eine Kamera, die das Innere eines Ladens aufnimmt, ist in dem Laden, beispielsweise einem Lebensmittelladen, installiert, und ein Überwachungssystem, das eine Person innerhalb des Ladens unter Verwendung eines Videos (im Folgenden als ein „aufgenommenes Video“ bezeichnet), das durch das Aufnehmen der Kamera erlangt wird, überwacht, wird weit verbreitet verwendet. Bei einem Betrieb eines solchen Überwachungssystems wird in einem Fall, in dem das aufgenommene Video für einen von der Überwachung verschiedenen Zweck (beispielsweise für den Zweck des Verbesserns einer Marketinganalyse oder einer Dienstleistung durch Erkennen des Stroms der Person innerhalb des Ladens) verwendet wird, ist es nötig, die Privatsphäre der Person (beispielsweise des Kunden), die durch die Kamera projiziert wird, zu schützen.
  • Hierzu ist beispielsweise ein Überwachungssystem, das in PTL 1 beschrieben wird, als Stand der Technik bekannt, in welchem die Verhaltenstendenz der Person für jedes Attribut der Person innerhalb des Ladens erkannt wird. Beispielsweise umfasst das Überwachungssystem des japanischen Patentes JP 5834193 B2 eine Überwachungsvorrichtung, die ein maskiertes Video erzeugt, das durch Verändern eines Bildbereiches einer Person, die aus einem durch Aufnehmen eines Überwachungsbereiches erlangten, bewegten Bild erkannt wird, zu einem Maskenbild erlangt wird, und das Video ausgibt. Die Überwachungsvorrichtung erlangt Bereichsinformationen jeder in dem aufgenommenen Video erkannten Person, bestimmt die Eigenschaften jeder anhand des aufgenommenen Videos erkannten Person und stellt das Maskenbild jedes Attributs ein. Die Überwachungsvorrichtung erzeugt eine Konturlinie jeder Person basierend auf der Bereichsinformation und Eigenschaft jeder Person, erzeugt das maskierte Video, das durch Verändern des Inneren der Konturlinie zu dem Maskenbild, das durch jedes Attribut angegeben wird, erlangt wird, und gibt das erzeugte Video aus.
  • Gemäß dem japanischen Patent JP 5834193 B2 wird die Privatsphäre durch Verwenden des Maskenbildes gewährleistet, nachdem ein Maskenbild für jedes Attribut bzw. Eigenschaft (beispielsweise Geschlecht oder Alter) einer Person und Positionsinformation einer Person, die in einem Überwachungsbereich innerhalb eines bewegten Bildes erkannt wird, erzeugt wird, und somit ist es möglich, das Verhalten der Person innerhalb des Ladens zu erkennen.
  • Allerdings berücksichtigt das japanische Patent JP 5834193 B2 den Fall nicht, in dem die Kamera den Bildbereich der in dem bewegten Bild erkannten Person zu dem Maskenbild ändert und die Empfangsvorrichtung (beispielsweise ein Nutzer-PC, der von dem Nutzer verwendet wird), die das bewegte Bild von der Kamera empfängt, das Maskieren durchführt.
  • In einem Fall, in dem der Nutzer-PC nicht in der Lage ist, das Maskieren durchzuführen, ist es schwierig, das Maskieren auf dem aufgenommenen Video, das durch eine Kamera aufgenommen wird, die eine Funktion (im Folgenden als eine „Maskierfunktion“ bezeichnet) des Durchführens des Maskierens nicht hat, durchzuführen. Es gibt Schwierigkeiten beim Hinzufügen der Maskierfunktion zu der bestehenden Kamera, welche die Maskierfunktion nicht hat. Es ist somit schwierig, die Überwachungseffizienz zu verbessern oder die Genauigkeit der Marketinganalyse zu verbessern.
  • DE 10 2008 007 199 A1 stellt sich die Herausforderung neben den offensichtlichen Vorteilen von Videoüberwachungssystemen zur Sicherung von Überwachungsbereichen und gegebenenfalls zur Nachverfolgung von verdächtigen Objekten, die Privatsphäre von Personen in videoüberwachten Bereichen zu sichern. Hierzu wird ein Maskierungsmodul für ein Überwachungssystem vorgeschlagen, wobei das Überwachungssystem mindestens eine Überwachungskamera aufweist und zur Beobachtung von Überwachungsbereichen mit bewegten Objekten geeignet und/oder angeordnet ist, mit einer Auswahleinrichtung zur Auswahl von Objekten als Auswahlobjekte, wobei das Maskierungsmodul ausgebildet ist, die Auswahlobjekte oder Teilbereiche davon maskiert auszugeben, wobei das Maskierungsmodul ausgebildet ist, die Maskierung auf Objekte in mindestens einem selektierten, räumlichen Teilbereich des Überwachungsbereichs zu begrenzen.
  • US 2005/0270372 A1 zeigt ein Überwachungskamerasystem, das eine Kamera, einen Anzeigebildschirm und eine Verarbeitungsvorrichtung mit erster und zweiter Speichervorrichtung aufweist. Die Verarbeitungsvorrichtung gibt eine Informationsanzeige, die auf dem Bildschirm angezeigt wird einen Teil der von der Kamera erfassten Bilder überlagert, aus. Die Verarbeitungskamera gibt auch eine Privatsphärenmaske, die auf dem Bildschirm angezeigt wird und einen ausgewählten Teil der durch die Kamera aufgenommenen Bilder verdeckt, aus. Die Position der Privatsphärenmaske wird angepasst, um Veränderungen in dem Sichtfeld der Kamera zu berücksichtigen. Die durch die Verarbeitungsvorrichtung ausgegebene Privatsphärenmaske hat eine erste Auflösung und die durch die Verarbeitungsvorrichtung ausgegebene Informationsanzeige hat eine zweite Auflösung, wobei die erste Auflösung größer als die zweite Auflösung
  • US 2015/0222861 A1 offenbart eine Überwachungsvorrichtung, die ein bewegtes Ausgangsbild, das durch Ändern eines Bildbereichs einer Person, die von einem abgebildeten Bewegtbild eines Überwachungsbereichs erfasst wird, zu einem Maskenbild erhalten wird, erzeugt und ausgibt. Die Überwachungsvorrichtung umfasst einen Personenbildanalysator, der einen Personendetektor umfasst, der eine Person aus dem abgebildeten Bewegtbild erfasst und Bereichsinformationen in Bezug auf jede Person und einen Attributbestimmer erfasst, der Attribute für jede aus dem abgebildeten Bewegtbild erkannte Person bestimmt, einen Maskenbildsetzer, der das Maskenbild durch das Attribut festlegt, und einen Bewegtbildausgabesteuerer, der das durch Ändern erhaltene Ausgangsbewegungsbild erzeugt und der Bildbereich für jede Person zu dem Maskenbild durch das Attribut ausgibt, basierend auf der Bereichsinformation und dem Attribut für jede Person, die von dem Personenbildanalysator ausgegeben wird.
  • DE 10 2015 209 138 A1 umfasst eine Überwachungsvorrichtung, die mit einem Personenbildanalysesystem ausgestattet ist, das über ein Personenermittlungssystem verfügt, das eine Person aus aufgenommenen Bewegtbildern ermittelt und Positionsinformationen betreffend einen Personenbereich erfasst, sowie einem Bereichszustandsbestimmungssystem, das einen Bereichszustand bestimmt, der den Personenzustand in dem Personenbereich angibt, und zwar basierend auf den Positionsinformationen, einem Maskenbildeinstellungssystem, das das Maskenbild einstellt, das dem Bereichszustand entspricht, und einem Bewegtbilderausgabesteuer-/-regelsystem, das Ausgabebewegtbilder erzeugt und ausgibt, bei denen der Personenbereich in ein Maskenbild umgewandelt wird, das dem Bereichszustand entspricht, und zwar basierend auf den Positionsinformationen und dem Bereichszustand, die von dem Personenbildanalysesystem ausgegeben werden.
  • US 2009/0244327 A1 offenbart ein Kamerasystem, welches eine Kamera, einen Auslösefeldverschiebemechanismus, eine Verschiebungsbetragserfassungseinheit und einen Maskierungsprozessor, der ein Maskierungsziel innerhalb einer erfassten Bildflamme maskiert, umfasst. Der Maskierungsprozessor umfasst erste und zweite Positionsberechnungseinheiten und eine Maskenbereich-Erzeugungseinheit. Die ersten und zweiten Positionsberechnungseinheiten berechnen basierend auf den Verschiebungseinstellungen des Auslösefeldverschiebemechanismus erste und zweite relative Positionen des Maskierungsziels relativ zu dem Schießfeld. Die Maskenbereich-Erzeugungseinheit richtet einen Maskenbereich ein, um das Maskierungsziel auf der erfassten Bildflamme basierend auf der ersten und der zweiten relativen Position zu maskieren.
  • ZUSAMMENFASSUNG
  • Die vorliegende Offenbarung wurde in Anbetracht der vorbeschriebenen Umstände des Standes der Technik gemacht und es ist eine Aufgabe, ein Überwachungssystem und ein Videoanzeigeverfahren bereitzustellen, die geeignet sind, eine Überwachungseffizienz oder eine Marketinganalysegenauigkeit zu verbessern, indem ein Maskieren auf einem aufgenommenen Video, das durch eine Kamera aufgenommen wird, die eine Maskierfunktion nicht hat, angemessen durchgeführt wird, ohne der Kamera, die die Maskierfunktion nicht hat, die Maskierfunktion separat hinzuzufügen.
  • Die vorliegende Offenbarung löst die Aufgabe durch ein Überwachungssystem, ein Videoanzeigeverfahren und ein Computerprogramm gemäß den unabhängigen Ansprüchen.Gemäß der vorliegenden Offenbarung ist es möglich, eine Überwachungseffizienz oder Marketinganalysegenauigkeit durch angemessenes Durchführen eines Maskierens auf einem aufgenommenen Video, das durch eine Kamera aufgenommen wird, die die Maskierfunktion nicht hat, ohne separates Hinzufügen der Maskierfunktion zu der Kamera, die die Maskierfunktion nicht hat, zu verbessern.
  • Figurenliste
    • 1 ist ein Diagramm, das ein Beispiel einer Systemkonfiguration eines Überwachungskamerasystems gemäß jeder beispielhaften Ausführungsform zeigt;
    • 2 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration einer omnidirektionalen Kamera oder einer festen Kamera im Detail zeigt;
    • 3 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration einer PTZ-Kamera im Detail zeigt;
    • 4 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration eines Client-PCs im Detail zeigt;
    • 5 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration eines Aufnahmegerätes im Detail zeigt;
    • 6 ist ein Diagramm, das ein Beispiel eines Kameraeinstellungsbildschirms zeigt;
    • 7 ist ein Diagramm, das ein Beispiel eines Bereichseinstellungsbildschirms zeigt;
    • 8 ist ein erläuterndes Diagramm, das ein erstes Beispiel eines Übergangs eines Bildschirms in einer zeitlichen Abfolge in Antwort auf eine Nutzerbedienung, die das Einstellen des Maskierens (MOR-Verarbeitung) betrifft, zeigt;
    • 9 ist ein erläuterndes Diagramm, das ein zweites Beispiel des Übergangs des Bildschirms in einer zeitlichen Abfolge in Antwort auf die Nutzerbedienung, die das Einstellen des Maskierens (MOR-Verarbeitung) betrifft, zeigt;
    • 10 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens eines Client-PCs in Antwort auf eine Nutzerbedienung, die das Einstellen des Maskierens (MOR-Verarbeitung) betrifft, gemäß einer ersten beispielhaften Ausführungsform im Detail;
    • 11 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens des Maskierens (MOR-Verarbeitung), die den jeweiligen beispielhaften Ausführungsformen gemein ist, im Detail;
    • 12 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens zum Aktualisieren eines Hintergrundbildes in Schritten S15 und S16 der 11 im Detail;
    • 13 ist ein schematisches erläuterndes Diagramm, das ein Verfahren des Erzeugens des Hintergrundbildes durch anfängliches Lernen zeigt;
    • 14 ist ein schematisches erläuterndes Diagramm, das das Konzept des Maskierens (MOR-Verarbeitung) zeigt;
    • 15A und 15B sind Diagramme, die Anzeigebeispiele, in welchen aufgenommene Videos einer Vielzahl von Kameras in drei Teile aufgeteilt werden, zeigen, und 15C ist ein Diagramm, das ein Anzeigebeispiel, in welchem die aufgenommenen Videos der Vielzahl der Kameras in vier Teile aufgeteilt werden, zeigt;
    • 16 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens, das von einem Client-PC gemäß einer zweiten beispielhaften Ausführungsform, wenn aufgenommene Videos einer Vielzahl von Kameras angezeigt werden, durchgeführt wird, im Detail;
    • 17 ist ein Diagramm, das ein Anzeigebeispiel, in welchem ein aufgenommenes Video einer Kamera und eine Vielzahl verschiedener vergangener aufgenommener Videos der gleichen Kamera in vier Teile aufgeteilt sind, zeigt;
    • 18 ist ein Flussdiagramm zum Beschreiben eines Beispiels des Betriebsverfahrens, das in dem Client-PC gemäß der zweiten beispielhaften Ausführungsform durchgeführt wird, wenn das aufgenommene Video der Kamera und das aufgenommene Video des Aufzeichnungsgerätes angezeigt werden, im Detail;
    • 19 ist ein Sequenzdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens des Einstellens des Maskierens (MOR-Verarbeitung) eines Client-PCs auf einer Maskierkamera und einer normalen Kamera und des Anzeigens eines aufgenommenen Videos gemäß einer dritten beispielhaften Ausführungsform im Detail;
    • 20 ist ein Diagramm, das ein Beispiel eines Kameraeinstellungsbildschirms der dritten oder vierten beispielhaften Ausführungsform zeigt;
    • 21 ist ein Diagramm, das das in vier aufgeteilte Anzeigebeispiel bearbeiteter Videos, die durch Durchführen des Maskierens auf aufgenommenen Videos erlangt werden, die auf einem Monitor des Client-PCs angezeigt werden, zeigt;
    • 22 ist ein Diagramm, das ein Beispiel eines Recorder-Einstellungsbildschirms zeigt;
    • 23A ist ein Sequenzdiagramm zum Beschreiben eines ersten Beispiels eines Betriebsverfahrens des Einstellens des Maskierens (MOR-Verarbeitung) gemäß der vierten beispielhaften Ausführungsform im Detail, und 23B ist ein Sequenzdiagramm zum Beschreiben eines zweiten Beispiels des Betriebsverfahrens des Einstellens des Maskierens (MOR-Verarbeitung) gemäß der vierten beispielhaften Ausführungsform im Detail;
    • 24 ist ein Sequenzdiagramm zum Beschreiben eines ersten Beispiels eines Betriebsverfahrens, das das Erlangen und Anzeigen des aufgenommenen Videos in dem Client-PC gemäß der vierten beispielhaften Ausführungsform, nachdem ein Betrieb begonnen hat, betrifft, im Detail;
    • 25 ist ein Sequenzdiagramm zum Beschreiben eines zweiten Beispiels des Betriebsverfahrens, das das Erlangen und Anzeigen des aufgenommenen Videos in dem Client-PC gemäß der vierten beispielhaften Ausführungsform, nachdem der Betrieb begonnen hat, betrifft, im Detail; und
    • 26 ist ein Flussdiagramm zum Beschreiben eines Beispiels des Betriebsverfahrens des Anzeigens des Client-PCs in Schritt S69 der 24 und 25 im Detail.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Hintergrund des Inhalts der ersten beispielhaften Ausführungsform.
  • Gemäß dem oben beschriebenen japanischen Patent Nr. 5834193 wird, nachdem ein Maskenbild für jedes Attribut (beispielsweise Geschlecht oder Alter) einer Person und Positionsinformation einer Person, die in einem Überwachungsbereich innerhalb eines Bewegtbildes erkannt wird, erzeugt wird, die Privatsphäre unter Verwendung des Maskenbildes gewährleistet, und somit ist es möglich, das Verhalten der Person innerhalb eines Ladens zu erkennen.
  • Allerdings berücksichtigt das japanische Patent Nr. 5834193 eine Idee nicht, wonach eine Person, die in einem beliebigen Bereich innerhalb eines Überwachungsbereiches einer Kamera existiert und direkt durch einen Nutzer (beispielsweise eine Überwachungsperson) bestimmt bzw. ausersehen wird, zu einem Maskenbild verändert wird. Es ist wichtig, die Privatsphäre der innerhalb des aufgenommenen Videos existierenden Person zu schützen, aber wenn eine oder mehrere Personen, die in sämtlichen Bereichen innerhalb des aufgenommenen Videos existieren, zu Maskenbildern verändert werden, wird die Sichtbarkeit des aufgenommenen Videos in einigen Installationsumgebungen der Kamera verschlechtert. Somit besteht eine Notwendigkeit sowohl für den Schutz der Privatsphäre der Person als auch die Unterdrückung der Verschlechterung der Sichtbarkeit des aufgenommenen Videos.
  • Somit werden in der folgenden ersten beispielhaften Ausführungsform Beispiele eines Überwachungssystems und eines Maskierungseinstellungsverfahrens, die geeignet sind, eine Annehmlichkeit eines Nutzers zu verbessern, indem sie sowohl den Schutz der Privatsphäre der Person, die sich in dem aufgenommenen Video der Kamera befindet, als auch die Unterdrückung der Verschlechterung der Sichtbarkeit des aufgenommenen Videos der Kamera erreicht, um für die Umgebung, in welcher die Kamera installiert ist, angemessen zu sein.
  • Im Folgenden werden beispielhafte Ausführungsformen, in welchen ein Überwachungssystem gemäß der vorliegenden Offenbarung spezifisch offenbart ist, im Detail durch angemessenen Verweis auf die Zeichnungen beschrieben. Hierbei kann eine unnötig detaillierte Beschreibung weggelassen werden. Beispielsweise kann die redundante Beschreibung der im Wesentlichen gleichen Konfigurationen oder die ausführliche Beschreibung der bereits wohlbekannten Gegenstände weggelassen werden. Dadurch wird verhindert, dass die folgende Beschreibung unnötigerweise redundant ist und Fachleute auf dem Gebiet können die vorliegende Offenbarung leicht verstehen. Die begleitenden Zeichnungen und die folgende Beschreibung werden bereitgestellt, damit Fachleuten auf dem Gebiet die vorliegende Offenbarung ausreichend verstehen, und sind nicht dazu beabsichtigt, den in den Ansprüchen beschriebenen Gegenstand zu beschränken.
  • Im Folgenden wird ein Überwachungssystem und ein Überwachungskamerasystem (entweder ein bemanntes Überwachungskamerasystem oder ein unbemanntes Überwachungskamerasystem kann verwendet werden) gemäß der vorliegenden Offenbarung beschrieben, in welchem wenigstens eine Überwachungskamera in einem Überwachungsbereich (beispielsweise einem Laden, einer Fabrik, einem Büro, öffentlichen Einrichtungen wie beispielsweise eine Bibliothek und ein Veranstaltungsort, einem Dienstleistungsbüro oder einer Bank) angeordnet ist.
  • Die vorliegende Offenbarung kann als ein Maskierungseinstellungsverfahren in dem Überwachungssystem ausgedrückt werden. Die vorliegende Offenbarung kann als ein Programm, das einen persönlichen Computer des Nutzers (Client-PC), der ein Computer ist, der das Überwachungssystem bildet, verursacht, einen durch das Maskierungseinstellungsverfahren definierten Betrieb durchzuführen, oder ein Aufzeichnungsmedium, das das Programm, das den PC zum Durchführen des durch das Maskierungseinstellungsverfahren definierten Betriebs veranlasst, speichert, ausgedrückt werden.
  • Im Folgenden wird ein Nutzer (beispielsweise eine Überwachungsperson, die das aufgenommene Video des Überwachungsbereiches inspiziert) des Überwachungskamerasystems als ein Beispiel des Überwachungssystems einfach als ein „Nutzer“ bezeichnet. In der folgenden Beschreibung wird eine „omnidirektionale Kamera“, eine „PTZ-Kamera“ und eine „feste Kamera“ einfach als eine „Kamera“ in einem breiten Sinne bezeichnet. Entsprechend wird in der folgenden Beschreibung in einem Fall, in dem diese Kameras einfach als die „Kamera“ bezeichnet werden, angenommen, dass die Kamera wenigstens eine der omnidirektionalen Kamera, der PTZ-Kamera und der festen Kamera bezeichnet.
  • Erste beispielhafte Ausführungsform
  • 1 ist ein Diagramm, das ein Beispiel einer Systemkonfiguration des Überwachungskamerasystems 100 gemäß jeder beispielhaften Ausführungsform zeigt. In dem Überwachungskamerasystem 100 sind Recorder REC1 und REC4 und Router RUT2, RUT3 und RUT4 jeweils über ein Netzwerk NW verbunden. Das Überwachungskamerasystem 100 umfasst einen Client-PC 10, der von dem Nutzer verwendet wird, eine Vielzahl von Kameras (vergleiche die omnidirektionale Kamera, die PTZ- (Pan Tilt Zoom) Kamera und die feste Kamera, die im Folgenden beschrieben werden), und eine Vielzahl von Recordern (siehe unten).
  • Der Recorder REC1 ist mit einer omnidirektionalen Kamera CAM11, PTZ-Kameras CAM12 und CAM13 und einer festen Kamera CAM14 über den Router RUT1 mit einer bekannten Routing-Funktion verbunden. Aufgenommene Videos, die jeweils durch die omnidirektionale Kamera CAM11, die PTZ-Kameras CAM12 und CAM13 und die feste Kamera CAM14 aufgenommen werden, werden als aufgezeichnete Videos in Verbindung mit Identifikationsinformation und Aufnahmedatum und -zeit der zugehörigen Kamera in dem Recorder REC1 über den Router RUT1 gespeichert. Die omnidirektionale Kamera CAM11, die PTZ-Kameras CAM12 und CAM13 und die feste Kamera CAM14 können den gleichen Aufnahmebereich oder verschiedene Aufnahmebereiche aufnehmen. Wie oben erwähnt stehen in den jeweiligen beispielhaften Ausführungsformen einschließlich der vorliegenden beispielhaften Ausführungsform eine Vielzahl von Kameras (das heißt die omnidirektionale Kamera CAM11, die PTZ-Kameras CAM12 und CAM13 und die feste Kamera CAM14) mit dem Recorder REC1 in Beziehung.
  • Ein Recorder REC4 hat eine Funktion eines Online-Speichers und speichert Daten, wie beispielsweise ein aufgenommenes Video, das von einer Verbindungszielvorrichtung (beispielsweise einem weiteren Recorder oder dem Client-PC 10) des Netzwerks NW zum Aufzeichnen benötigt wird.
  • Der Recorder REC2 ist mit dem Netzwerk NW, einer PTZ-Kamera CAM21 und einer festen Kamera CAM22 über einen Router RUT2 mit einer bekannten Routing-Funktion verbunden. Aufgenommene Videos, die jeweils durch die PTZ-Kamera CAM21 und die feste Kamera CAM22 aufgenommen werden, werden als aufgezeichnete Videos in Verbindung mit Identifikationsinformation und Aufnahmedatum und -zeit der zugehörigen Kamera in dem Recorder REC2 über den Router RUT2 gespeichert. Die PTZ-Kamera CAM21 und die feste Kamera CAM22 können den gleichen Aufnahmebereich oder verschiedene Aufnahmebereiche aufnehmen. Wie oben erwähnt steht in den jeweiligen beispielhaften Ausführungsformen einschließlich der vorliegenden beispielhaften Ausführungsform eine Vielzahl von Kameras (das heißt die PTZ-Kamera CAM21 und die feste Kamera CAM22) in Beziehung mit dem Recorder REC2.
  • Ein Recorder REC3 ist mit dem Netzwerk NW oder einer omnidirektionalen Kamera CAM31, PTZ-Kameras CAM32 und CAM33 und einer festen Kamera CAM34 über einen Router RUT3 mit einer bekannten Routing-Funktion verbunden. Aufgenommene Videos, die jeweils durch die omnidirektionale Kamera CAM31, die PTZ-Kameras CAM32 und CAM33 und die feste Kamera CAM34 aufgenommen werden, werden als aufgezeichnete Videos zusammen mit Identifikationsinformation und Aufnahmedatum und -zeit der zugehörigen Kamera in dem Recorder REC3 über den Router RUT3 gespeichert. Die omnidirektionale Kamera CAM31, die PTZ-Kameras CAM32 und CAM33 und die feste Kamera CAM34 können den gleichen Aufnahmebereich oder verschiedene Aufnahmebereiche aufnehmen. Wie oben erwähnt steht in den jeweiligen beispielhaften Ausführungsformen einschließlich der vorliegenden beispielhaften Ausführungsform eine Vielzahl von Kameras (das heißt die omnidirektionale Kamera CAM31, die PTZ-Kameras CAM32 und CAM33 und die feste Kamera CAM34) in Beziehung mit dem Recorder REC3.
  • Der Client-PC 10 als ein Beispiel einer Informationsverarbeitungsvorrichtung hat eine Funktion des Durchführens des Maskierens zum Ändern wenigstens eines Teils oder des Ganzen eines bewegten Objektes (beispielsweise einer Person; das Gleiche findet im Folgenden Anwendung) in aufgenommenen Videos, die jeweils durch die vorgenannten Kameras aufgenommen werden (spezifisch die omnidirektionalen Kameras CAM11 und CAM31, die PTZ-Kameras CAM12, CAM13, CAM21, CAM32 und CAM33 und die festen Kameras CAM14, CAM22 und CAM34) durch Verändern der aufgenommenen Videos zu einem Maskenbild. Der Client-PC 10 zeigt aufgenommene Videos, die von verschiedenen Kameras oder Recordern übertragen (verteilt) werden, auf einem Monitor DP an oder zeigt bearbeitete Videos, die, nachdem das Maskieren an den aufgenommenen Videos durchgeführt wird, von verschiedenen Kameras oder Recordern übertragen (verteilt) werden, auf dem Monitor DP an. In der folgenden Beschreibung ist das bewegte Objekt nicht auf eine Person beschränkt und kann ein Automobil oder ein Roboter sein.
  • Hier ist das Maskenbild ein Bild, das durch Durchführen einer Bildverarbeitung (das heißt dem Maskieren) erhalten wird, um zu verursachen, dass eine Person, die in dem aufgenommenen Video erscheint, nicht besonders bestimmt bzw. spezifisch angegeben werden kann, um die Privatsphäre der Person zu schützen. Das Maskenbild ist beispielsweise ein Bild, das durch Durchführen von Bildverarbeitung erlangt wird, sodass ein Bereich innerhalb einer Konturlinie der Person, die in dem aufgenommenen Video erscheint, durchscheinend wird. In der folgenden Beschreibung kann das Maskieren auch als eine Bewegtobjektentfernungsverarbeitung (MOR, Moving Object Remover) bezeichnet werden. Obwohl die Details hiervon unten mit Verweis auf 11 und 12 beschrieben werden, bezieht sich die MOR-Verarbeitung auf ein Verarbeiten zum Ersetzen eines Bereiches eines bewegten Objektes, wenn das bewegte Objekt, das in dem aufgenommenen Video erscheint, vorhanden ist, mit dem Maskenbild (beispielsweise ein durchscheinendes Bild). Somit ist es schwierig, die Person, die in dem aufgenommenen Video erscheint, spezifisch anzugeben, und somit ist es möglich, die Privatsphäre der Person zu schützen.
  • In der folgenden Beschreibung wird ein durch die Kamera aufgenommenes Video als ein „aufgenommenes Video“ bezeichnet und ein Bild, das durch Überlagern eines Maskenbildes über das aufgenommene Video erlangt wird, wird, nachdem das Maskieren auf dem aufgenommenen Video durch den Client-PC 10 oder eine Maskierkamera (siehe unten) mit einer Maskierfunktion durchgeführt wird, als ein „bearbeitetes Video“ bezeichnet.
  • Der Client-PC 10 ist mit dem Netzwerk NW oder einer Systemsteuerung 5 über einen Router RUT4 mit einer bekannten Routing-Funktion verbunden. Ein Joystick J1, der zum Unterstützen einer Bedienung des Nutzers bereitgestellt ist, ist mit der Systemsteuerung 5 verbunden. Beispielsweise führt die Systemsteuerung 5 verschiedene Einstellungen, die mit einem Betrieb von Vorrichtungen, die das Überwachungskamerasystem 100 bilden, zusammenhängen, durch.
  • Das Netzwerk NW kann ein kabelgebundenes Netzwerk (beispielsweise ein Internetz oder das Internet) oder ein kabelgebundenes lokales Bereichsnetzwerk (LAN, Local Area Network) sein, oder es kann ein drahtloses Netzwerk (beispielsweise drahtloses LAN, wireless LAN) sei. Beispielsweise können die Recorder REC1, REC2, REC3 und REC4 direkt mit dem Client-PC 10, ohne durch das Netzwerk NW zu passieren, verbunden sein. Die 1 zeigt, dass der Monitor DP als ein von dem Client-PC separates Element bereitgestellt ist. Der Monitor DP kann hier auch derart bereitgestellt werden, dass er in dem Client-PC 10 enthalten ist, wie in 4 gezeigt. Die Systemsteuerung 5, der Joystick J1 und der Client-PC 10 sind beispielsweise innerhalb eines Überwachungsraums, in dem der Nutzer während der Zeit der Überwachung stationiert ist, angeordnet.
  • Das Netzwerk NW kann ein Weitverkehrsnetz (Wide Area Network, WAN) sein, das ein weites Kommunikationsnetzwerk ist. In diesem Fall sind die Recorder jeweils in einer Vielzahl von Läden oder einer Vielzahl von Filialen innerhalb einer Firma bereitgestellt, und ein aufgenommenes Video, das in jeder Filiale oder jedem Laden aufgenommen wird, wird in jeweils einem Recorder davon gespeichert.
  • 2 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration der omnidirektionalen Kamera CAM11, ... oder der festen Kamera CAM14, ... im Detail zeigt. Die internen Konfigurationen der omnidirektionalen Kameras CAM11 und CAM31 und der festen Kameras CAM14, CAM22 und CAM34 sind gleich und im Folgenden wird aus Gründen der Bequemlichkeit der Beschreibung die interne Konfiguration der omnidirektionalen Kamera CAM11 als ein Beispiel beschrieben. In der Beschreibung der 2 kann die omnidirektionale Kamera CAM11 durch eine andere omnidirektionale Kamera (beispielsweise die omnidirektionale Kamera CAM31) oder eine andere feste Kamera (beispielsweise die feste Kamera CAM14) ersetzt werden. Hier, in der Beschreibung der 2, werden die Inhalte verschiedener Konfigurationen zwischen der omnidirektionalen Kamera CAM11 und der festen Kamera beschrieben werden. Die omnidirektionale Kamera CAM11, die in 2 gezeigt ist, umfasst einen Prozessor C11, einen Kommunikator C12, eine Linse C13, einen Bildsensor C14, einen Speicher C15 und einen Stromversorgungsverwalter C16.
  • Der Prozessor C11 führt eine Signalverarbeitung zum allgemeinen Steuern der Vorgänge der jeweiligen Einheiten der omnidirektionalen Kamera CAM11, Eingabe und Ausgabe von Daten zu und von anderen Einheiten, arithmetische Operationen von Daten und Speichern von Daten durch. Beispielsweise umfasst der Prozessor C11 eine zentrale Verarbeitungseinheit (CPU, Central Processing Unit), eine Mikroverarbeitungseinheit (MPU, Micro Processing Unit), einen digitalen Signalprozessor (DSP) oder ein feldprogrammierbares Schalter-Array (FPGA, Field Programmable Gate Array).
  • Beispielsweise erlangt der Prozessor C11 in Antwort auf die Bedienung des Nutzers, der die Systemsteuerung 5 oder den Client-PC 10 verwendet, omnidirektionale Bilddaten, die durch Aufnahme unter Verwendung des Bildsensors C14 erlangt werden, erzeugt zweidimensionale Panoramabilddaten (das heißt Bilddaten, die derart umgewandelt werden, um eine zweidimensionale Panoramaansicht zu haben), die durch Schneiden eines Bildes mit einem spezifischen Bereich (Richtung) aus den omnidirektionalen Bilddaten erlangt werden, und speichert die erzeugten Bilddaten in dem Speicher C15. In Antwort auf die Bedienung des Nutzers, der die Systemsteuerung 5 oder den Client-PC 10 verwendet, erlangt der Prozessor C11 aufgenommene Bilddaten mit einem festen Betrachtungswinkel, die durch das Aufnehmen unter Verwendung des Bildsensors C14 erlangt werden, und speichert die erlangten Bilddaten in dem Speicher C15.
  • Der Kommunikator C12 ist eine Netzwerkschnittstelle (l/F, Interface), die eine Datenkommunikation mit dem Router RUT1 steuert, und die omnidirektionalen Bilddaten, die zweidimensionalen Panoramabilddaten oder die aufgenommenen Bilddaten mit dem festen Betrachtungswinkel zu dem Recorder REC1 über den Router RUT1 überträgt. Der Kommunikator C12 kann die omnidirektionalen Bilddaten, die zweidimensionalen Panoramabilddaten oder die aufgenommenen Bilddaten mit dem festen Betrachtungswinkel zu dem Client-PC 10 mit der Identifikationsinformation und dem Aufnahmedatum und -zeit der Kamera zuordnen und kann die zugeordnete Information über den Router RUT1 und den Recorder REC1 übertragen.
  • Beispielsweise umfasst die Linse C13 eine Linse mit einem weiten Betrachtungswinkel oder eine Fischaugenlinse in der omnidirektionalen Kamera CAM11. In einer solchen Konfiguration trifft Aufnahmelicht aus allen Richtungen des Aufnahmebereiches, der ein Aufnahmeziel der omnidirektionalen Kamera CAM11 ist, ein und wird konzentriert und ein optisches Bild des Aufnahmelichtes wird auf einer Licht empfangenden Oberfläche (Aufnahmeoberfläche) des Bildsensors C14 gebildet. Indes umfasst beispielsweise die Linse C13 eine Linse mit einem festen Betrachtungswinkel in der festen Kamera CAM14. In solch einer Konfiguration trifft Aufnahmelicht aus einer Betrachtungsrichtung des Aufnahmebereiches, der ein Aufnahmeziel der festen Kamera CAM14 ist, ein und wird konzentriert, und ein optisches Bild des Aufnahmelichtes wird auf der Licht empfangenden Oberfläche (Aufnahmeoberfläche) des Bildsensors C14 gebildet.
  • Beispielsweise umfasst der Bildsensor C14 einen komplementären Metalloxid-Halbleiter- (CMOS, Complementary Metal Oxide Semiconductor) Sensor oder einen ladungsgekoppelten Vorrichtungssensor (CCD, Charge Coupled Device). In einer solchen Konfiguration wird das Aufnehmen auf dem optischen Bild des Aufnahmelichtes von dem Aufnahmebereich, das durch die Linse C13 auf die Licht empfangende Oberfläche (Aufnahmeoberfläche) konzentriert wird, durchgeführt, und demnach werden die omnidirektionalen Bilddaten oder die aufgenommenen Bilddaten mit dem festen Betrachtungswinkel des Aufnahmebereiches erlangt. Die omnidirektionalen Bilddaten oder die aufgenommenen Bilddaten mit dem festen Betrachtungswinkel werden durch den Prozessor C11 erlangt.
  • Der Speicher C15 umfasst einen ROM 15z, der Daten eines Einstellungswertes oder eines Programms zum Definieren eines Betriebs der omnidirektionalen Kamera CAM11 oder der festen Kamera CAM14 definiert, einen RAM 15y, der die aufgenommenen Bilddaten mit dem festen Betrachtungswinkel, die omnidirektionalen Bilddaten, ausgeschnittene Bilddaten, die durch Ausschneiden eines Teils des Bereiches davon erlangt werden, oder Arbeitsdaten speichert, und eine Speicherkarte 15x, die mit der omnidirektionalen Kamera CAM11 oder der festen Kamera CAM14 verbunden ist, um frei darin eingefügt oder herausgezogen zu werden und verschiedene Datenelemente speichert.
  • Der Stromversorgungsverwalter C16 versorgt die verschiedenen Einheiten der omnidirektionalen Kamera CAM11 oder der festen Kamera CAM14 mit einer Gleichspannungsleistung. Der Stromversorgungsverwalter C16 kann andere Vorrichtungen (beispielsweise die PTZ-Kameras CAM12 und CAM13), die mit dem Router RUT1 verbunden sind, mit der Gleichspannungsleistung versorgen.
  • 3 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration der PTZ-Kamera CAM12, CAM13, ... im Detail zeigt. Die internen Konfigurationen der PTZ-Kameras CAM12, CAM13, CAM21, CAM32 und CAM33 sind gleich und somit wird im Folgenden die interne Konfiguration der PTZ-Kamera CAM12 als ein Beispiel zum Zwecke der Einfachheit der Beschreibung beschrieben. In der folgenden Beschreibung der 3 kann die PTZ-Kamera CAM12 durch eine andere PTZ-Kamera (beispielsweise die PTZ-Kamera CAM13) ersetzt werden. Den gleichen Einheiten der omnidirektionalen Kamera CAM11 oder der festen Kamera CAM14 werden die Bezugsziffern zugewiesen, die den jeweiligen Einheiten der 2 entsprechen, und somit wird die Beschreibung davon weggelassen. Die PTZ-Kamera CAM12 ist beispielsweise eine Kamera, die zum Anpassen einer Richtung einer optischen Achse (Aufnahmerichtung) gemäß einer Betrachtungswinkel-Änderungsanweisung von der Systemsteuerung 5 oder dem Client-PC 10, der von dem Nutzer verwendet wird, in der Lage ist.
  • Vergleichbar mit der omnidirektionalen Kamera CAM11 umfasst die PTZ-Kamera CAM12 beispielsweise eine Aufnahmerichtungssteuerung C27 und einen Linsenantriebsmotor C28 zusätzlich zu einem Prozessor C21, einem Kommunikator C22, einer Linse C23, einem Bildsensor C24 und einem Speicher C25. Beispielsweise dann, wenn die Betrachtungswinkel-Änderungsanweisung der Systemsteuerung 5 oder des Client-PCs 10 empfangen wird, benachrichtigt der Prozessor C21 die Aufnahmerichtungssteuerung C27 über die Betrachtungswinkel-Änderungsanweisung.
  • Die Aufnahmerichtungssteuerung C27 steuert die Aufnahmerichtung der PTZ-Kamera CAM12, wenigstens eine einer Schwenkrichtung und einer Neigungsrichtung gemäß der Betrachtungswinkel-Änderungsanweisung zu sein, die von dem Prozessor C21 benachrichtigt wurde, und gibt ein Steuerungssignal zum Ändern einer Zoomvergrößerung an den Linsenantriebsmotor C28 aus, falls notwendig. Der Linsenantriebsmotor C28 treibt die Linse C23 gemäß dem Steuersignal an, verändert die Aufnahmerichtung (das heißt die Richtung der optischen Achse) davon und passt eine Brennweite der Linse C23 an, um die Zoomvergrößerung zu ändern.
  • Die Linse C23 umfasst eine oder zwei oder mehrere Linsen. In der Linse C23 wird die Richtung der optischen Achse der Schwenkachse oder der Neigungsachse durch das Antreiben des Linsenantriebsmotors C28 gemäß dem Steuersignal von der Aufnahmerichtungssteuerung C27 verändert.
  • 4 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration des Client-PCs 10 im Detail zeigt. Der Client-PC 10, der in 4 gezeigt ist, umfasst einen Prozessor 11, einen Kommunikator 12, einen Operator 13, einen Speicher 15, einen Speicher 16 und einen Stromversorgungsverwalter 17.
  • Der Prozessor 11 führt eine Signalverarbeitung zum allgemeinen Steuern der Operationen der jeweiligen Einheiten des Client-PCs 10, zur Eingabe und Ausgabe von Daten zu und von anderen Einheiten, von arithmetischen Operationen von Daten und zum Speichern von Daten aus. Der Prozessor 11 umfasst beispielsweise eine CPU, eine MPU, einen DSP oder ein FPGA. Der Prozessor 11 umfasst eine Bildeingabe 111, einen Hintergrundbildprozessor 112, einen Maskierungseinsteller 113, einen Maskierungsprozessor 114 und eine Videoausgabesteuerung 115.
  • Die Bildeingabe 111 gibt das aufgenommene Video, das von verschiedenen Kameras oder Recordern übertragen wird und durch den Kommunikator empfangen wird, ein.
  • Obwohl mit Verweis auf 11 und 12 beschrieben, führt der Hintergrundbildprozessor 112 verschiedene Verarbeitungsaufgaben zum Erzeugen und Aktualisieren eines Hintergrundbildes aus, die in dem Maskieren (MOR-Verarbeitung) des Client-PCs 10 durch Verwenden des aufgenommenen Videos, das durch die Bildeingabe 111 erlangt wird, durchgeführt werden. Die Details des Erzeugens oder Aktualisierens des Hintergrundbildes werden unten beschrieben.
  • Der Maskierungseinsteller 113 führt Einstellungen betreffend die Maskierung (MOR-Verarbeitung) durch, die der Client-PC 10 in Antwort auf eine Nutzerbedienung (siehe unten) in der Lage ist, durchzuführen.
  • Beispielsweise erzeugt der Maskierungseinsteller 113 in Antwort auf eine Nutzerbedienung zum Festlegen, ob das Maskieren auf dem aufgenommenen Video, das durch die Bildeingabe 111 erlangt wird, durchzuführen ist oder nicht, eine Maskierungseinstellungsinformation, die angibt, ob das Maskieren in Verbindung mit der Kamera (das heißt der omnidirektionalen Kamera, der PTZ-Kamera oder der festen Kamera), die eine Verteilungsquelle (Übertragungsquelle) des aufgenommenen Videos ist, durchzuführen ist oder nicht, und speichert die erzeugte Information in dem Speicher 15 oder dem Speicher 16.
  • Beispielsweise erzeugt der Maskierungseinsteller 113 in Antwort auf eine Nutzerbedienung zum Bestimmen eines Nichtziel-Maskierungsbereiches in dem aufgenommenen Video, das durch die Bildeingabe 111 erlangt wird, eine Maskierungseinstellungsinformation unter Verwendung von Positionsinformation (beispielsweise Koordinateninformation) des bestimmten Bereiches als den Nichtziel-Maskierungsbereich und speichert die erzeugten Informationen in dem Speicher 15 oder dem Speicher 16. Obwohl die Details des Erzeugens der Maskierungseinstellungsinformation unten beschrieben werden, werden Informationen, die angeben, ob das Maskieren und die Positionsinformation des Nichtziel-Maskierungsbereiches durchzuführen ist oder nicht, zumindest als die Maskierungseinstellungsinformation gespeichert.
  • Basierend auf der Maskierungseinstellungsinformation, die durch den Maskierungseinsteller 113 erzeugt wird, wählt der Maskierungsprozessor 114 einen Bereich, der durch Entfernen des Nichtziel-Maskierungsbereiches, der durch die Maskierungseinstellungsinformation bestimmt ist, von dem aufgenommenen Video, das durch die Bildeingabe 111 erlangt ist, als einen Maskierungszielbereich aus. Der Maskierungsprozessor 114 erzeugt das Maskierungsbild, das durch Ändern einer Konturlinie des bewegten Objektes (beispielsweise einer Person) in dem ausgewählten Zielbereich des Maskierens zu dem Maskenbild (beispielsweise einem durchscheinenden Bild) erlangt wird. Die Details des Maskierens werden unten beschrieben.
  • Die Videoausgabesteuerung 115 zeigt das aufgenommene Video von der Kamera, zu welcher die Information eingestellt ist, die angibt, dass das Maskieren nicht ausgeführt wird, oder das bearbeitete Video, auf welchem das Maskieren (siehe unten) bereits durch die Kamera durchgeführt wird, auf dem Monitor DP ohne ein Verändern des Videos an. Die Videoausgabesteuerung 115 erzeugt das bearbeitete Video, das durch Überlagern des Maskenbildes über eine Position des bewegten Objektes (beispielsweise der Person) auf dem aufgenommenen Video durch Verwenden des aufgenommenen Videos von der Kamera, auf welcher die Einstellung festgelegt ist, die angibt, dass das Maskieren des Client-PCs 10 durchgeführt wird, und des Maskenbildes, das aus dem aufgenommenen Video durch den Maskierungsprozessor 114 erzeugt wird. Die Videoausgabesteuerung 115 zeigt das bearbeitete Video auf dem Monitor DP an.
  • Der Kommunikator 12 empfängt das aufgenommene Video oder das bearbeitete Video (siehe unten), das von verschiedenen Kameras oder Recordern über Router RUT4 übertragen wird, und gibt das empfangene Video an den Prozessor 11 aus.
  • Beispielsweise ist der Operator 13 eine Nutzerschnittstelle (UI, User Interface) zum Benachrichtigen des Prozessors 11 über den Inhalt der Eingabebedienung des Nutzers und ist eine Zeigervorrichtung wie beispielsweise eine Maus oder eine Tastatur. Beispielsweise kann der Operator 13 angeordnet sein, um einem Anzeigebildschirm des Monitors DP zu entsprechen und kann ein Tastfeld oder ein Touchpad sein, das geeignet ist, einen direkten Eingabevorgang mit einem Finger des Nutzers oder einem Stylus Pen auszuführen.
  • Der Monitor DP als ein Beispiel eines Anzeigebildschirms umfasst beispielsweise einen Flüssigkristallbildschirm (LCD, Liquid Crystal Display) oder eine organische Elektrolumineszenz (EL) und zeigt einen Kameraeinstellungsbildschirm (vergleiche 6) oder einen Bereichseinstellungsbildschirm (vergleiche 7), der durch den Maskierungseinsteller 113 eingestellt ist, an oder zeigt das aufgenommene Video oder das bearbeitete Video, das durch die Videoausgabesteuerung 115 ausgegeben wird, an.
  • Beispielsweise speichert der Speicher 15 als ein Beispiel eines Speichers die Maskierungseinstellungsinformation, die durch den Maskierungseinsteller 113 erzeugt wurde, und speichert Daten des aufgenommenen Videos, das von verschiedenen Kameras oder Recordern verteilt (übertragen) wird oder Daten des bearbeiteten Videos, das durch den Prozessor 11 erzeugt wird.
  • Der Speicher 16 umfasst einen ROM 161, der Daten eines Einstellungswertes oder eines Programmes zum Definieren eines Betriebs des Client-PCs 10 speichert und einen RAM 162, der Arbeitsdaten, die verarbeitet werden, oder verschiedene Datenelemente, die durch den Prozessor 11 erzeugt werden, speichert. Obwohl in 4 nicht gezeigt, kann der Speicher 16 weiter eine Speicherkarte (nicht gezeigt) aufweisen, die mit dem Client-PC 10 verbunden ist, um frei eingefügt oder herausgezogen werden zu können, und verschiedene Datenelemente speichert.
  • Der Stromversorgungsverwalter 17 versorgt die jeweiligen Einheiten des Client-PCs 10 mit Gleichspannungsstrom.
  • 5 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration des Recorders REC1, ... im Detail zeigt. Die internen Konfigurationen der Recorder REC1, REC2, REC3 und REC4 sind gleich und im Folgenden wird die interne Konfiguration des Recorders REC1 als ein Beispiel zum Zwecke der Bequemlichkeit in der Beschreibung beschrieben. In der Beschreibung der 5 kann der Recorder REC1 durch einen anderen Recorder (beispielsweise den Recorder REC2) ersetzt werden. Der Recorder REC1, der in 5 gezeigt ist, umfasst einen Prozessor R11, einen Kommunikator R12, einen Speicher R13, einen Speicher R14 und einen Stromversorgungsverwalter R16.
  • Der Prozessor R11 führt eine Signalverarbeitung zum allgemeinen Steuern des Betriebs der jeweiligen Einheiten des Recorders REC1, der Eingabe und Ausgabe von Daten zu und von anderen Einheiten, arithmetische Operationen von Daten und dem Speichern von Daten durch. Der Prozessor R11 umfasst beispielsweise eine CPU, eine MPU, einen DSP oder ein FPGA.
  • Beispielsweise empfängt der Prozessor R11 Datenelemente der aufgenommenen Videos, die durch verschiedene Kameras (beispielsweise omnidirektionale Kamera CAM11, PTZ-Kameras CAM12 und CAM13 und feste Kamera CAM14) aufgenommen werden in Antwort auf die Bedienung des Nutzers, der die Systemsteuerung 5 oder den Client-PC 10 verwendet, assoziiert die empfangenen Datenelemente mit Aufnahmedaten und -zeiten und Identifikationselementen der Kameras und speichert die Datenelemente der aufgenommenen Videos als die aufgezeichneten Videos in dem Speicher R14.
  • Der Kommunikator R12 empfängt die Datenelemente der aufgenommenen Videos, die durch verschiedene Kameras (beispielsweise omnidirektionale Kamera CAM11, PTZ-Kameras CAM12 und CAM13 und feste Kamera CAM14) aufgenommen werden, oder der bearbeiteten Videos (siehe unten), die durch Durchführen des Maskierens auf den aufgenommenen Videos erlangt werden, über den Router RUT1 und gibt die empfangenen Videos an den Prozessor R11 aus. Der Kommunikator R12 überträgt Datenelemente der aufgezeichneten Videos, die durch den Prozessor R11 aus dem Speicher R14 gelesen werden, an den Client-PC 10 gemäß der Anweisung von dem Client-PC 10.
  • Der Speicher R13 umfasst einen ROM 131, der Daten eines Einstellwertes oder eines Programms zum Definieren eines Betriebs des Recorders REC1 speichert und einen RAM 132, der Arbeitsdaten, die verarbeitet werden, oder verschiedene Datenelemente, die durch den Prozessor R11 erzeugt werden, speichert. Obwohl in 5 nicht gezeigt, kann der Speicher R13 weiter eine Speicherkarte (nicht gezeigt) umfassen, die mit dem Recorder REC1 verbunden ist, um frei darin eingefügt oder daraus herausgezogen zu werden, und verschiedene Datenelemente speichert.
  • Beispielsweise speichert der Speicher R14 die Datenelemente der aufgenommenen Videos, die von verschiedenen Kameras verteilt (übertragen) werden. In einem Fall, in dem die Datenelemente der bearbeiteten Videos, die durch den Client-PC 10 erzeugt werden, von dem Client-PC 10 zu dem Recorder REC1 übertragen werden, kann der Speicher R14 die Datenelemente der bearbeiteten Videos speichern.
  • Der Stromversorgungsverwalter R16 versorgt die jeweiligen Einheiten des Recorders REC1 mit einem Gleichspannungsstrom.
  • Im Folgenden wird der Betrieb des Überwachungskamerasystems 100 gemäß der vorliegenden beispielhaften Ausführungsform im Detail mit Verweis auf 6 bis 10 beschrieben.
  • 6 ist ein Diagramm, das ein Beispiel eines Kameraeinstellungsbildschirms WD1 zeigt. 7 ist ein Diagramm, das ein Beispiel eines Bereichseinstellungsbildschirms WD2 zeigt. 8 ist ein erläuterndes Diagramm, das ein erstes Beispiel des Übergangs eines Bildschirms in einer zeitlichen Abfolge in Antwort auf die Nutzerbedienung betreffend die Einstellung des Maskierens (MOR-Verarbeitung) zeigt. 9 ist ein erläuterndes Diagramm, das ein zweites Beispiel des Übergangs des Bildschirms in einer zeitlichen Abfolge in Antwort auf die Nutzerbedienung betreffend die Einstellung des Maskierens (MOR-Verarbeitung) zeigt. 10 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsvorgangs des Client-PCs 10 in Antwort auf die Nutzerbedienung betreffend die Einstellung des Maskierens (MOR-Verarbeitung) im Detail gemäß der ersten beispielhaften Ausführungsform.
  • Anfänglich wird der in 6 gezeigte Kameraeinstellungsbildschirm WD1 beschrieben.
  • In 6 ist ein Teil des Kameraeinstellungsbildschirms WD1 extrahiert und gezeigt. Beispielsweise zeigt der Maskierungseinsteller 113 den Kameraeinstellungsbildschirm WD1 in Antwort auf die Nutzerbedienung auf dem Monitor DP an. Beispielsweise kann auf dem Kameraeinstellungsbildschirm WD1 wenigstens die Internetprotokoll (IP)-Adresse, das Maskieren (MOR-Verarbeitung), die Einstellung des Maskierens (MOR-Verarbeitung), eine anfängliche Lernperiode und eine normale Lernperiode für jede Kamera von maximal 64 Kameras (das heißt einschließlich der omnidirektionalen Kamera, der PTZ-Kamera und der festen Kamera) eingestellt werden, um der Kamera in Antwort auf die Bedienung des Nutzers unter Verwendung des Operators 13 zugeordnet zu sein. Vier Reiter (Kameras 1 bis 16, Kameras 17 bis 32, Kameras 33 bis 48 und Kameras 49 bis 64), die auf dem Kameraeinstellungsbildschirm WD1 bereitgestellt sind, werden gewechselt, und somit können Informationselemente wenigstens der Internetprotokoll (IP)-Adresse, des Maskierens (MOR-Verarbeitung), der Einstellung des Maskierens (MOR-Verarbeitung), die anfängliche Lernperiode und die normale Lernperiode den entsprechenden Kameras für jede 16 Kameras eingestellt werden.
  • In Spalte CLM1 der IP-Adresse wird die IP-Adresse der zugehörigen Kamera eingegeben.
  • In Spalte CLM2 des Maskierens (MOR-Verarbeitung) wird eine der beiden Auswahlen Ausführen (AN) oder Nichtausführen (AUS) des Maskierens (MOR-Verarbeitung) in dem Client-PC 10 ausgewählt (vergleiche Rahmen WK2).
  • In Spalte CLM3 des Einstellens des Maskierens (MOR-Verarbeitung) wird ein Einstellungsknopf (vergleiche Rahmen WK1) zum Anzeigen des Bereichseinstellungsbildschirms WD2, in welchem das Einstellen des Nichtzielbereiches des Maskierens (MOR-Verarbeitung) durchgeführt wird, anzeigt. Hier wird, obwohl der Einstellungsknopf der Spalte CLM3 für die Kamera, für die AN in Spalte CLM2 ausgewählt ist, drückbar angezeigt wird, der Einstellungsknopf der Spalte CLM3 für die Kamera, für die AUS in Spalte CLM2 ausgewählt ist, nicht drückbar angezeigt (beispielsweise vergleiche die gestrichelten Linien einer fünften Zeile, einer achten Zeile, einer zehnten Zeile und einer fünfzehnten Zeile der Spalte CLM3 des Ausdrucks der 6).
  • In Spalte CLM4 der Anfangslernperiode wird die Anfangslernperiode des Maskierens (MOR-Verarbeitung), die unten beschrieben wird, eingegeben (vergleiche Rahmen WK3). Auch hier kann, obwohl die Anfangslernperiode der Spalte CLM4 für die Kamera, für die AN in Spalte CLM2 ausgewählt ist, eingegeben werden kann, die Anfangslernperiode der Spalte CLM4 für die Kamera, für die AUS in Spalte CLM2 ausgewählt ist, nicht eingegeben werden (beispielsweise vergleiche die gestrichelten Linien einer fünften Zeile, einer achten Zeile, einer zehnten Zeile und einer fünfzehnten Zeile der Spalte CLM4 aus des Ausdrucks der 6).
  • In Spalte CLM5 der normalen Lernperiode wird die unten beschriebene normale Lernperiode des Maskierens (MOR-Verarbeitung) eingegeben (vergleiche Rahmen WK3). Ebenso kann, obwohl die normale Lernperiode der Spalte CLM5 für die Kamera, für die AN in Spalte CLM2 ausgewählt ist, eingegeben werden kann, die normale Lernperiode der Spalte CLM5 für die Kamera, für die AUS in Spalte CLM2 ausgewählt ist, nicht eingegeben (beispielsweise vergleiche die gestrichelten Linien einer fünften Zeile, einer achten Zeile, einer zehnten Zeile und einer fünfzehnten Zeile der Spalte CLM5 des Ausdrucks der 6).
  • Im Folgenden wird ein Bereichseinstellungsbildschirm WD2, der in 7 gezeigt ist, beschrieben.
  • In 7 ist ein gesamter Bereichseinstellungsbildschirm WD2 gezeigt. Wenn der Einstellungsknopf der Spalte CLM3 für die Kamera, bei der in Spalte CLM2 des Kameraeinstellungsbildschirms WD1 AN ausgewählt ist, in Antwort auf die Nutzerbedienung gedrückt wird, wechselt der Maskierungseinsteller 113 den Bereichseinstellungsbildschirm WD2 auf den Monitor DP und zeigt den Monitor an. Der Maskierungseinsteller 113 kann den Kameraeinstellungsbildschirm WD1 und den Bereichseinstellungsbildschirm WD2 individuell auf dem Monitor DP anzeigen. Der Nichtziel-Maskierungsbereich (MOR-Verarbeitung) kann für die Kamera eingestellt werden, um mit der Kamera assoziiert zu werden, während aufgenommenes Video MV1, das von der Kamera aufgenommen wird, auf den Bereichseinstellungsbildschirm WD2 in Antwort auf die Bedienung des Nutzers unter Verwendung des Operators 13 projiziert wird.
  • Die jeweiligen Elemente der Vorrichtungsbezeichnung TM1, des sichtbaren Bereichs TM2, des unsichtbaren Bereichs TM3, Löschen TM4 und „Bild Laden“ TM5, ein Videoanzeigebereich und ein Einstellungsknopf STBT zum Abschließen des Einstellens werden in dem Bereichseinstellungsbildschirm WD2 angezeigt. Der Videoanzeigebereich ist ein Anzeigebereich für aufgenommenes Video MV1 (das heißt, Echtzeitvideo), das aktuell durch die Kamera (beispielsweise PTZ-Kamera CAM13) aufgenommen wird, die durch die Vorrichtungsbezeichnung TM1 angegeben wird. Hier ist das Video, das in dem Videoanzeigebereich des Bereichseinstellungsbildschirms WD2 projiziert wird, nicht auf aufgenommenes Video MV1 (das heißt, Echtzeitvideo), das aktuell durch die Kamera aufgenommen wird (beispielsweise PTZ-Kamera CAM13) beschränkt und kann beispielsweise auch ein in der Vergangenheit aufgezeichnetes Video, das bereits in dem Recorder REC1 gespeichert ist, sein. In diesem Fall empfängt der Client-PC 10 das vergangene, aufgezeichnete Video, das von dem Recorder REC1 verteilt (übertragen) wird und zeigt das empfangene Video auf dem Videoanzeigebereich des Bereichseinstellungsbildschirms WD2 an.
  • Beispielsweise wird PTZ-Kamera CAM13 in der Vorrichtungsbezeichnung TM1 angezeigt.
  • Bereichsauswählknöpfe VA1, VA2 und VA3 zum Bestimmen der Nichtzielmaskierungsbereiche sind in dem sichtbaren Bereich TM2 angezeigt. Mit anderen Worten wird, falls der Nichtzielmaskierungsbereich bestimmt ist, sogar dann, wenn eine Person, die sich bewegt, innerhalb dieses Bereiches existiert, das Maskieren nicht durchgeführt, und die Person wird an das Video projiziert. Der Bereichsauswahlknopf VA1 wird zum Bestimmen des Nichtzielmaskierungsbereiches durch Verwenden eines Vierecks (beispielsweise eines Rechtecks) verwendet (vergleiche 8). Der Bereichsauswahlknopf VA2 wird zum Bestimmen des Nichtzielmaskierungsbereiches durch Verwenden eines Polygons (beispielsweise Fünfecks) verwendet (vergleiche 9). Der Bereichsauswahlknopf VA3 wird zum Auswählen des Nichtzielmaskierungsbereiches, der durch die Bedienung des Bereichsauswahlknopfes VA1 oder des Bereichsauswahlknopfes VA2 bestimmt ist, verwendet.
  • Bereichsauswahlknöpfe IVA1, IVA2 und IVA3 zum Bestimmen von Bereichen (versteckten Bereichen), die von den aufgenommenen Videos versteckt sind, werden in „unsichtbarem Bereich“ TM3 angezeigt. Mit anderen Worten wird, falls der versteckte Bereich bestimmt ist, das Innere des versteckten Bereichs in beispielsweise schwarz gefärbt und nicht in das Video projiziert. Der Bereichsauswahlknopf IVA1 wird zum Bestimmen des versteckten Bereiches durch Verwenden eines Vierecks (beispielsweise eines Rechtecks) verwendet. Der Bereichsauswahlknopf IVA2 wird zum Bestimmen des versteckten Bereiches durch Verwenden eines Polygons (beispielsweise Fünfecks) verwendet. Der Bereichsauswahlknopf IVA3 wird zum Auswählen des versteckten Bereiches, der durch die Bedienung des Bereichsauswahlknopfes IVA oder des Bereichsauswahlknopfes IVA2 bestimmt wird, verwendet.
  • Ein Auswahlknopf DL1 zum Löschen eines ausgewählten Nichtzielmaskierungsbereiches oder eines ausgewählten versteckten Bereiches, ein Auswahlknopf DL2 zum Löschen aller ausgewählten Nichtzielmaskierungsbereiche oder aller ausgewählten versteckten Bereiche werden unter „Löschen“ TM4 angezeigt. In einem Fall, in dem nur einer der Nichtzielmaskierungsbereiche oder der versteckten Bereiche ausgewählt wird, wird der zugehörige Bereich durch eine gestrichelte Linie in dem aufgenommenen Video MV1 gezeigt.
  • In einem Fall, in dem der Nichtzielmaskierungsbereich oder der versteckte Bereich bestimmt ist, wird der Einstellknopf STBT durch Nutzerbedienung gedrückt, um den bestimmten Nichtzielmaskierungsbereich oder versteckten Bereich zu bestätigen. Entsprechend ordnet der Maskierungseinsteller 113 Positionsinformation (spezieller, Positionsinformation des aufgenommenen Videos MV1) des bestimmten Nichtzielmaskierungsbereiches oder versteckten Bereiches der durch die Vorrichtungsbezeichnung TM1 spezifizierten Kamera durch das Drücken des Einstellknopfes STBT zu und speichert die zugeordneten Informationen in dem Speicher 15 oder dem Speicher 16.
  • Hier wird beispielsweise das Einstellen des Nichtzielmaskierungsbereiches mit Verweis auf 8 und 10 beschrieben. Der Maskierungseinsteller 113 zeigt den Kameraeinstellungsbildschirm WD1 auf dem Monitor DP in Antwort auf die Nutzerbedienung zum Anzeigen des Kameraeinstellungsbildschirms WD1 (vergleiche 6) an (S1).
  • In Antwort auf die Nutzerbedienung, wenn in Spalte CLM2 des Eintrags der PTZ-Kamera CAM13 des Kameraeinstellungsbildschirms WD1 (vergleiche 6) AN ausgewählt ist und der Einstellungsknopf (vergleiche Rahmen WK1) der Spalte CLM3 des gleichen Eintrags gedrückt wird (S2, JA), zeigt der Maskierungseinsteller 113 den Bereichseinstellungsbildschirm WD2, der der PTZ-Kamera CAM13 entspricht, auf dem Monitor DP an (S3). Wenn der Einstellungsknopf der Spalte CLM3 nicht gedrückt wird (S2, NEIN), schreitet die Verarbeitung des Prozessors 11 des Client-PCs 10 nicht mit Schritt S3 fort.
  • Auf dem Bereichseinstellungsbildschirm WD2 der 8 wird der Bereichsauswahlknopf VA1 (beispielsweise der Bereichsauswahlknopf VA1 mit rechteckiger Form) des sichtbaren Bereichs TM2 durch die Nutzerbedienung gedrückt (S4) und ein Bereich um eine Fernsehvorrichtung in dem aufgenommenen Video MV1, in welchem Personen JB1, JB2 und JB3 projiziert werden, wird durch eine Ziehbedienung, um umringt zu sein, bestimmt (S5). Der Maskierungseinsteller 113 zeichnet einen rechteckig geformten Rahmen JGA1, die durch den Bereichsauswahlknopf VA1 bestimmt ist, um die Fernsehvorrichtung auf dem Bereichsauswahlbildschirm WD3. Der Einstellungsknopf STBT wird auf dem Bereichsauswahlbildschirm WD3 durch die Nutzerbedienung (S6) gedrückt und dadurch erzeugt der Maskierungseinsteller 113 Kameraeinstellungsinformation, die der PTZ-Kamera CAM13 zugeordnet wird, durch Verwenden von Positionsinformation (beispielsweise Koordinateninformation) des Rahmens JGA1 als den Nichtzielmaskierungsbereich und speichert die erzeugten Informationen in dem Speicher 15 oder dem Speicher 16 ab (S7). Der Maskierungsprozessor 114 führt das Maskieren zum Ändern bewegter Objekte (beispielsweise Personen JB1, JB2 und JB3), die außerhalb des Rahmens JGA1 des aufgenommenen Videos MV1 existieren, zu dem Maskenbild MK1, MK2 und MK3 durch Verweisen auf die Kameraeinstellungsinformation, die durch den Maskierungseinsteller 113 erzeugt wurde, durch. Die Videoausgabesteuerung 115 erzeugt das bearbeitete Video unter Verwendung des aufgenommenen Videos MV1 und der Maskenbilder MK1, MK2 und MK3, die durch den Maskierungsprozessor 114 erzeugt wurden, und zeigt das erzeugte Video auf dem Videoanzeigebildschirm WD4 des Monitors DP an.
  • Entsprechend wird, nachdem das Innere des Rahmens JGA1 der Nichtzielmaskierungsbereich ist, das Maskieren nicht durchgeführt. Beispielsweise wird, obwohl die Person, die sich bewegt, auf der Fernsehvorrichtung innerhalb des Rahmens NMK1 des Videoanzeigebildschirms WD4 projiziert wird, diese Person nicht zu dem Maskenbild verändert (beispielsweise dem Maskenbild MK1), und damit ist es möglich, eine Verschlechterung der Sichtbarkeit des bearbeiteten Videos, das auf den Videoanzeigebildschirm WD4 projiziert wird, zu unterdrücken.
  • Wenn das normale Lernen (vergleiche unten), das in dem Maskieren des Maskierungsprozessors 114 durchgeführt wird, durchgeführt wird, zeigt die Videoausgabesteuerung 115 einen Indikator ID1 des „MOR wird ausgeführt“ an, das anzeigt, dass das Maskieren (spezieller, das normale Lernen) durchgeführt wird, in dem oberen linken Bereich des Videoanzeigebildschirms WD4 an. Entsprechend kann der Nutzer visuell und einfach durch Betrachten des Videoanzeigebildschirms WD4 auf dem Monitor DP einen Zustand ermitteln, in dem das Maskieren in dem Client-PC durchgeführt wird.
  • Hier wird beispielsweise das Einstellen des Nichtzielmaskierungsbereiches mit Verweis auf 9 und 10 beschrieben. Der Maskierungseinsteller 113 zeigt den Kameraeinstellungsbildschirm WD1 auf dem Monitor DP in Antwort auf die Nutzerbedienung zum Anzeigen des Kameraeinstellungsbildschirms WD1 (vergleiche 6) an (S1).
  • In Antwort auf die Nutzerbedienung wird, wenn in Spalte CLM2 des Eintrags der PTZ-Kamera CAM13 des Kameraeinstellungsbildschirms WD1 (vergleiche 6) AN ausgewählt ist und der Einstellungsknopf (vergleiche Rahmen WK1) der Spalte CLM3 des gleichen Eintrags gedrückt wird (S2, JA), zeigt der Maskierungseinsteller 113 den Bereichseinstellungsbildschirm WD2, der der PTZ-Kamera CAM13 entspricht, auf dem Monitor DP an (S3). Wenn der Einstellungsknopf der Spalte CLM3 nicht gedrückt wird (S2, NEIN), schreitet die Verarbeitung des Prozessors 11 des Client-PCs 10 nicht mit Schritt S3 fort.
  • Auf dem Bereichseinstellungsbildschirm WD2 der 9 wird der Bereichsauswahlknopf VA2 (beispielsweise Bereichsauswahlknopf VA2 mit einer fünfeckigen Form) des sichtbaren Bereichs TM2 durch die Nutzerbedienung gedrückt (S4), und Eckpunkte PT1, PT2 und PT3 des Fünfecks werden ausgewählt, und Seiten zwischen diesen Eckpunkten werden durch die Ziehbedienung bestimmt, sodass ein Bereich um den Kopf der Person JB1 des aufgenommenen Videos MV1, in dem Personen JB1, JB2 und JB3 projiziert werden, umringt ist (S5). Der Maskierungseinsteller 113 zeichnet einen Rahmen JGA2 mit der fünfeckigen Form um den Kopf der Person JB1, die durch den Bereichsauswahlknopf VA2 bestimmt ist, auf dem Bereichseinstellungsbildschirm WD3. Der Einstellungsknopf STBT wird auf dem Bereichseinstellungsbildschirm WD3 durch die Nutzerbedienung gedrückt (S6), und demnach erzeugt der Maskierungseinsteller 113 die Kameraeinstellungsinformation, die der PTZ-Kamera CAM13 zugeordnet ist, durch Verwenden von Positionsinformation (beispielsweise Koordinateninformation) des Rahmens JGA2 als Nichtzielmaskierungsbereich und speichert die erzeugten Informationen in dem Speicher 15 oder dem Speicher 16 ab (S7). Der Maskierungsprozessor 114 führt das Maskieren zum Verändern der bewegten Objekte (beispielsweise Personen JB2 und JB3) außerhalb des Rahmens JGA2 des aufgenommenen Videos MV1 zu den Maskenbildern MK2 und MK3 (vergleiche 8) durch, durch Verweisen auf die Kameraeinstellungsinformationen, die durch den Maskierungseinsteller 113 erzeugt wurden. Die Videoausgabesteuerung 115 erzeugt das bearbeitete Video unter Verwendung des aufgenommenen Videos MV1 und der Maskenbilder MK2 und MK3, die durch den Maskierungsprozessor 114 erzeugt wurden, und zeigt das erzeugte Video auf einem Videoanzeigebildschirm (nicht gezeigt) des Monitors DP an.
  • Entsprechend wird, da das Innere des Rahmens JGA2 der Nichtzielmaskierungsbereich ist, das Maskieren nicht durchgeführt. Beispielsweise wird sogar dann, wenn die Person, die sich bewegt, in der Nähe des Kopfes der Person JB1 innerhalb des Videoanzeigebildschirms (nicht gezeigt) projiziert wird, diese Person nicht zu dem Maskenbild verändert (beispielsweise dem Maskenbild MK1), und demnach ist es möglich, eine Verschlechterung der Sichtbarkeit des bearbeiteten Videos, das auf den Videoanzeigebildschirm projiziert wird, zu unterdrücken.
  • Im Folgenden werden die Details des Inhaltes des Vorgangs des Maskierens (MOR-Verarbeitung) des Prozessors 11 des Client-PCs 10 mit Verweis auf 11 und 12 beschrieben. 11 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens des Maskierens (MOR-Verarbeitung) im Detail, das den jeweiligen beispielhaften Ausführungsformen gemein ist. 12 ist ein Flussdiagramm zum Beschreiben eines Beispiels eines Betriebsverfahrens des Aktualisierens des Hintergrundbildes in Schritten S15 und S16 der 11 im Detail.
  • In 11 analysiert der Hintergrundbildprozessor 112 des Prozessors 11 das aufgenommene Video (beispielsweise aufgenommenes Video, das während einer vorbestimmten Zeitspanne nachdem das Aufnehmen durch die Kamera begonnen wird, aufgenommen wurde), das durch die Bildeingabe 111 erlangt wird, und erzeugt das Hintergrundbild einschließlich eines Bereiches (im Folgenden als ein „statischer Bereich“ bezeichnet), in dem es in dem aufgenommenen Video keine Bewegung gibt (S11). Im Folgenden wird das Verfahren des Schrittes S11 als „anfängliches Lernen“ des Maskierens (MOR-Verarbeitung) definiert.
  • 13 ist ein schematisches, erläuterndes Diagramm, das ein Verfahren des Erzeugens des Hintergrundbildes durch das anfängliche Lernen zeigt. Der Hintergrundbildprozessor 112 erlangt das aufgenommene Video, das für die vorbestimmte Zeitdauer aufgenommen wird, und detektiert einen Bereich (im Folgenden als ein „Bewegtobjektbereich“ bezeichnet), in dem es Bewegung gibt, und den statischen Bereich zwischen den Frames der aufgenommenen Bilder durch eine bekannte Bildverarbeitung (beispielsweise arithmetische Operation) eines Unterschieds zwischen Frames in einer Mehrzahl aufgenommener Bilder (vergleiche das Linke der Papieroberfläche der 13), die das aufgenommene Video bilden. In 13 ist eine Person JB4 als das bewegte Objekt gezeigt. Der Hintergrundbildprozessor 112 erzeugt das Hintergrundbild BG1, das den Bereich (das heißt, den statischen Bereich), in dem es keine Bewegung gibt, enthält, durch die vorgenannte Bildverarbeitung.
  • Der Hintergrundbildprozessor 112 hat Schwierigkeiten, den statischen Bereich von dem Bewegtobjektbereich in dem aufgenommenen Bild während des anfänglichen Lernens des Schrittes S11 zu trennen. Somit wird das aufgenommene Video während der anfänglichen Lernperiode nicht auf dem Monitor DP angezeigt. Mit anderen Worten zeigt die Videoausgabesteuerung 115 das aufgenommene Video, das von der Kamera verteilt (übertragen) wird, während der anfänglichen Lernperiode nicht auf dem Monitor DP an.
  • 14 ist ein schematisches, erläuterndes Diagramm, das das Konzept des Maskierens (MOR-Verarbeitung) zeigt. Nachdem das anfängliche Lernen des Schrittes S11 beendet ist, vergleicht der Maskierungsprozessor 114 des Prozessors 11 einen Pixelwert (beispielsweise einen Beleuchtungswert oder einen Rot-Grün-Blau (RGB)-Wert; das Gleiche findet im Folgenden Anwendung) des im Schritt S1 erzeugten Hintergrundbildes BG1 mit einem Pixelwert eines aktuell aufgenommenen Videos AA1, das von der Kamera geliefert (übertragen) wird, für jeden Pixel, der das Hintergrundbild bildet, oder das aufgenommene Video, oder für jeden eines vorbestimmten Pixelbereiches (beispielsweise für jede 4 Pixel x 4 Pixel) umfassend eine Vielzahl von Pixeln.
  • Der Maskierungsprozessor 114 bestimmt, dass der Bereich des aufgenommenen Videos, der einen Unterschied hat, der größer als ein (bekannter) vorbestimmter Schwellwert im Pixelwert ist, ein Bewegtobjektbereich OB1 ist, als das vorher erwähnte Vergleichsergebnis (S12). Der Maskierungsprozessor 114 verändert ein Bild des entsprechenden Abschnitts des aufgenommenen Videos, der als der Bewegtobjektbereich bestimmt ist, zu dem Maskenbild MSK1 (beispielsweise durchscheinendes Bild), erzeugt das bearbeitete Video BB1, das durch Überlagern des Maskenbildes MSK1 über den Bewegtobjektbereich des aufgenommenen Videos AA1 erlangt wird, und zeigt das erzeugte Video auf dem Monitor DP an (S13). Das Verarbeiten zum Anzeigen des bearbeiteten Video BB1 auf dem Monitor DP kann durch die Videoausgabesteuerung 115 durchgeführt werden. Der Maskierungsprozessor 114 kann dem erzeugten bearbeiteten Video BB1 eine Identifikationsnummer der Kamera (beispielsweise Kamera-ID) zuordnen und die zugeordnete Information in dem Speicher 15 oder dem Speicher 16 speichern, oder kann das bearbeitete Video zu dem Recorder (beispielsweise Recorder REC1) übertragen und es darin speichern.
  • Währenddessen bestimmt der Maskierungsprozessor 114, dass der Bereich des aufgenommenen Videos mit einem Unterschied, der geringer als der vorbestimmte Schwellwert (bekannt) in Pixelwerten ist, der statische Bereich ist, als das vorgenannte Vergleichsergebnis (S14). Der Maskierungsprozessor 114 zeigt ein Bild des entsprechenden Abschnittes des aufgezeichneten Videos, der als der statische Bereich bestimmt ist, als das aktuell aufgenommene Video oder Hintergrundbild, ohne das Video zu verändern, auf dem Monitor DP an (S14). Das Verarbeiten zum Anzeigen des Bildes des entsprechenden Abschnittes des aufgenommenen Videos, der als der statische Bereich bestimmt ist, kann durch die Videoausgabesteuerung 115 durchgeführt werden. Der Maskierungsprozessor 114 kann dem Bild des zugehörigen Abschnitts des aufgenommenen Videos, der als der statische Bereich bestimmt ist, die Identifikationsnummer (beispielsweise Kamera-ID) der Kamera zuordnen und kann die zugeordnete Information des Bildes in dem Speicher 15 oder dem Speicher 16 speichern, oder kann das Bild zu dem Recorder (beispielsweise dem Recorder REC1) übertragen und es darin speichern. Die Schritte S12, S13 und S14 können auch nicht als zeitliche Sequenz durchgeführt werden und können im Wesentlichen gleichzeitig oder im Wesentlichen parallel durchgeführt werden. Das Gleiche trifft auf die Schritte S15 und S16 zu.
  • Nach dem Schritt S14 aktualisiert der Hintergrundbildprozessor 112 das Hintergrundbild durch Verwenden des Videobereiches, der als der statische Bereich in Schritt S14 bestimmt ist, und des Hintergrundbildes, das in Schritt S11 erzeugt ist, für den Videobereich (S15). Beispielsweise wird das Aktualisieren (vergleiche 12) des Hintergrundbildes einmal pro Sekunde durchgeführt und das Hintergrundbild wird in einem Fall vollständig nach etwa 100 Sekunden aktualisiert, in dem 1 % der Information eines neu aufgenommenen Videos verwendet wird und 99 % der Information des aktuellen Hintergrundbildes verwendet wird. Die Details der Verarbeitung des Schrittes S15 werden unten mit Verweis auf 12 beschrieben.
  • Nach S14 aktualisiert der Hintergrundbildprozessor 112 das Hintergrundbild durch Verwenden des Videobereiches, der als der Bewegtobjektbereich in Schritt S12 bestimmt wurde, und des Hintergrundbildes, das in Schritt S11 für den Videobereich erzeugt wurde (S16). Im Folgenden werden die Verarbeitungsaufgaben dieser Schritte S15 und S16 als „normales Lernen“ des Maskierens (MOR-Verarbeitung) definiert. Beispielsweise wird das Aktualisieren (vergleiche 12) des Hintergrundbildes einmal pro Sekunde durchgeführt, und das Hintergrundbild wird in einem Fall vollständig nach etwa 1000 Sekunden aktualisiert, in dem 0,1 % der Information eines neu aufgenommenen Videos verwendet wird und 99,9 % der Information des aktuellen Hintergrundbildes verwendet wird. In diesem Fall ist die Zeitdauer des normalen Lernens eine größere Zeitdauer (das heißt 1000 Sekunden = etwa 17 Minuten) von 1000 Sekunden, beschrieben in Schritt S16, als die in Schritt S15 beschriebenen 100 Sekunden. Die Details der Verarbeitung des Schrittes S16 werden unten mit Verweis auf 12 beschrieben.
  • Nach den Schritten S15 und S16 wird in einem Fall, in dem das Maskieren (MOR-Verarbeitung) beendet ist (S17, JA), die Verarbeitung des Prozessors 11, der in 11 gezeigt ist, beendet. Währenddessen wird, nach den Schritten S15 und S16, in einem Fall, in dem das Maskieren (MOR-Verarbeitung) nicht endet (S17, NEIN), die Verarbeitung des Prozessors 11 zu dem Schritt S12 zurückkehren.
  • Die Verarbeitungsaufgaben der Schritte S15 und S16 werden in der Reihenfolge der Verarbeitungsaufgaben, die in 12 gezeigt sind, durchgeführt. Ein Unterschied zwischen der Verarbeitung des Schrittes S15 und der Verarbeitung des Schrittes S16 ist ein Wert des Hintergrundbildaktualisierungsverhältnisses X, das später beschrieben wird. In der Beschreibung der 12 wird beispielsweise angenommen, dass das Hintergrundbildaktualisierungsverhältnis X = 0,01 (= 1 %) in der Verarbeitung des Schrittes S15 und das Hintergrundbildaktualisierungsverhältnis X = 0,001 (= 0,1 %) in der Verarbeitung des Schrittes S16 ist.
  • Insbesondere bedeutet ein Hintergrundbildaktualisierungsverhältnis X = 0,01 (= 1 %), das 1 % der Information eines neu aufgenommenen Videos verwendet wird und 99 % der Information des aktuellen Hintergrundbildes bei dem Aktualisieren des Hintergrundbildes verwendet wird. Gleichsam bedeutet ein Hintergrundbildaktualisierungsverhältnis X = 0,001 (= 0,01 %), dass 0,1 % der Information eines neu aufgenommenen Videos verwendet wird und 99,9 % der Information des aktuellen Hintergrundbildes bei dem Aktualisieren des Hintergrundbildes verwendet wird. Beide Fälle bedeuten, dass die Information des neu aufgenommenen Videos abhängig von dem Wert des Hintergrundbildaktualisierungsverhältnisses X bei dem Aktualisieren des Hintergrundbildes verwendet wird.
  • In der Beschreibung der 12 wird angenommen, dass ein RGB-Wert (das heißt, ein Wert, der eine Intensität von rot, grün und blau in dem Pixel des Bildes angibt) als der Pixelwert verwendet wird. In einem Fall, in dem eine Farbtabelle ein 24-Bit RGB ist, gibt (R, G. B) = (255, 255, 255) weiß an, (R, G, B) = (0, 0, 0) gibt schwarz an, (R, G, B) = (255, 0, 0) gibt rot an, (R, G, B) = (0, 255, 0) gibt grün an und (R, G, B) = (0, 0, 255) gibt blau an.
  • In 12 legt der Hintergrundbildprozessor 112 die Koordinate (x, y) des Pixels, der das Hintergrundbild als ein Aktualisierungsziel bildet, auf (0, 0) fest (S21). Der Hintergrundbildprozessor 112 erlangt den Pixelwert (R0, G0, B0) des Pixels der Koordinate (x, y) von dem aktuell aufgenommenen Video (S22). Der Hintergrundbildprozessor 112 erlangt den Pixelwert (R1, G1, B1) des Pixels der Koordinate (x, y) von dem aktuellen Hintergrundbild (beispielsweise dem Hintergrundbild, das bei dem anfänglichen Lernen des Schrittes S11 erzeugt wird) (S23).
  • Der Hintergrundbildprozessor 112 berechnet den Pixelwert (R2, G2, B2) der Koordinate (x, y) des Pixels, der das aktualisierte Hintergrundbild bildet, gemäß den Ausdrücken (1) bis (3) durch Verwenden der Pixelwerte (R1, G1, B1), die in Schritt S23 erlangt wurden, und der Pixelwerte (R0, G0, B0), die in Schritt S22 erlangt wurden (S24) R2 = R 0 × X + R 1 × ( 1,0 X )
    Figure DE102017109106B4_0001
    G2 = G 0 × X + G 1 × ( 1,0 X )
    Figure DE102017109106B4_0002
    B2 = B 0 × X + B 1 × ( 1,0 X )
    Figure DE102017109106B4_0003
  • Beispielsweise wird in einem Fall, in dem R0 = 100, R1 = 50, X = 0,1 (= 10 %), R2 = 100 x 0,1 + 50 x 0,9 = 55 gemäß Ausdruck (1) berechnet. Entsprechend kann der Hintergrundbildprozessor 112 den Wert von R (Element) des entsprechenden Pixels von 50 (= R1) auf 55 (= R2) aktualisieren.
  • Nach dem Schritt S24 wird in einem Fall, in dem der Pixelwert für Koordinaten (x, y) aller der Pixel in dem Hintergrundbild als Aktualisierungsziel des Hintergrundbildprozessors 112 durch die Berechnung unter Verwendung von Ausdrücken (1) bis (3) aktualisiert wurde (S25, JA), die in 12 gezeigte Verarbeitung des Hintergrundbildprozessors 112 beendet.
  • Nach dem Schritt S24 legt der Hintergrundbildprozessor 112 in einem Fall, in dem der Pixelwert nicht für die Koordinate (x, y) aller der Pixel des Hintergrundbildes als Aktualisierungsziel des Hintergrundbildprozessors 112 durch die Berechnung unter Verwendung der Ausdrücke (1) bis (3) aktualisiert wurde (S25, NEIN) die Koordinate (x, y) des Pixels auf die nächste Koordinate (S26) fest. Nach dem Schritt S26 kehrt die Verarbeitung des Hintergrundbildprozessors 112 zu dem Schritt S22 zurück.
  • Entsprechend ändert der Prozessor 11 den Bereich (beispielsweise Person), in dem es eine Bewegung des aufgenommenen Videos gibt, auf das Maskenbild durch Durchführung des Maskierens (MOR), die in 11 und 12 gezeigt ist. Der Prozessor kann somit das bearbeitete Video, in welchem es schwierig ist, die Person des Bewegtobjektbereiches zu spezifizieren, erzeugen und das erzeugte Video auf dem Monitor DP anzeigen. Als ein Ergebnis ist es möglich, die Privatsphäre dieser Person zu schützen. Beispielsweise kann der Prozessor 11 sogar dann, wenn eine Umgebung verändert wird, wie beispielsweise durch eine Installation eines neuen feststehenden Objektes in dem Aufnahmebereich oder das Einschalten oder Ausschalten einer Lampe, das Hintergrundbild in Abhängigkeit der Veränderung der Umgebung aktualisieren. Beispielsweise kann der Prozessor 11 ein Aktualisieren zum Einfügen des neu installierten festen Objektes in das Hintergrundbild durchführen, kann ein angemessen bearbeitetes Video in Abhängigkeit von der Veränderung der Umgebung erzeugen und kann das Video auf dem Monitor DP projizieren.
  • In der Verarbeitung von Schritt S16 wird, nachdem eine hinreichende Zeitdauer für den Hintergrundbildprozessor 112, um zu bestimmen, dass das neue feste Objekt der statische Bereich ist, verstreicht, das neue feste Objekt vorzugsweise in das Hintergrundbild nach einer angemessenen Hintergrundnachfolgezeitdauer eingefügt, die von der Umgebung damit das neue feste Objekt in das Hintergrundbild eingefügt wird abhängt. Die Hintergrundnachfolgezeitdauer entspricht der normalen Lerndauer. Beispielsweise wird in einer Umgebung (beispielsweise Ort) mit einer niedrigen Wahrscheinlichkeit, dass eine Person auf einer Straße anhält, die normale Lerndauer (beispielsweise 5 Minuten = 300 Sekunden) vorzugsweise als die Hintergrundnachfolgezeitdauer festgelegt. Gleichzeitig wird beispielsweise in einer Umgebung (beispielsweise Ort) mit einer hohen Wahrscheinlichkeit, dass eine Person innerhalb einer Bibliothek, eines Büros oder einer Fabrik anhalten wird, die normale Lerndauer (beispielsweise 20 Minuten = 1200 Sekunden) vorzugsweise als die Hintergrundnachfolgezeitdauer festgelegt.
  • Wie oben beschrieben umfasst das Überwachungskamerasystem 100 gemäß der ersten beispielhaften Ausführungsform wenigstens eine Kamera (beispielsweise omnidirektionale Kamera CAM11), die den Aufnahmebereich aufnimmt, und den Client-PC 10, der das bearbeitete Video BB1, das durch Durchführen des Maskierens zum Verändern wenigstens eines Teils oder des gesamten des aufgenommenen Videos AA1 des Aufnahmebereiches, der durch die Kamera aufgenommen wird, oder des Bewegtobjektbereiches OB1 der Person, die in dem aufgenommenen Video AA1 erscheint, zu dem Maskenbild durchgeführt wird, auf dem Monitor DP angezeigt. Der Client-PC 10 zeigt den Bereichseinstellungsbildschirm WD2, der den Anzeigebereich des aufgenommenen Videos MV1 umfasst und auf welchem der nicht Nichtzielmaskierungsbereich festgelegt wird, auf dem Monitor DP (vergleiche 7) an. In Antwort auf die Nutzerbedienung ordnet der Client-PC 10 die Kameraeinstellungsinformation unter Verwendung des Bereiches (beispielsweise vergleiche Rahmen JGA1, der in 8 gezeigt ist), der in dem Anzeigebereich des aufgenommenen Videos MV1 bestimmt ist, innerhalb des Bereichseinstellungsbildschirms WD2 als den Nichtzielmaskierungsbereich der Kamera zu (beispielsweise der Kamera, die das aufgenommene Video verteilt), die dem aufgenommenen Video MV1 entspricht, und speichert die zugeordnete Information in dem Speicher 15 oder dem Speicher 16.
  • Entsprechend kann der Client-PC 10 den Nichtzielmaskierungsbereich (MOR-Verarbeitung für jede Kamera individuell in Antwort auf eine einfache Bedienung des Nutzers festlegen, um für die Umgebung des Ortes, an dem verschiedene Kameras installiert sind, angemessen zu sein. Entsprechend kann, um wirksam Ursachen einer Störung oder eines Problems in einem Fall, in dem eine Störung auftritt, untersuchen zu können, da die Person, die innerhalb des aufgenommenen Videos MV1, das von der Kamera (beispielsweise PTZ-Kamera CAM13) verteilt wird, oder des aufgenommenen Videos MV1 der Kamera, das von dem Recorder (beispielsweise Recorder REC1) verteilt wird, projiziert wird, zu dem Maskenbild verändert wird, das Überwachungskamerasystem 100 die Privatsphäre der Person schützen und eine Verschlechterung der Sichtbarkeit des aufgenommenen Videos der Kamera auf den Nichtzielmaskierungsbereich (MOR-Verarbeitung) projiziert, unterdrücken. Das heißt, dass das Überwachungskamerasystem 100 die Privatsphäre der Person, die innerhalb des aufgenommenen Videos der Kamera projiziert wird, schützen kann und eine Verschlechterung der Sichtbarkeit des aufgenommenen Videos der Kamera unterdrücken kann, um für die Umgebung des Ortes, an dem die Kamera installiert wird, angemessen zu sein. Damit ist es möglich, die Annehmlichkeit des Nutzers zu verbessern.
  • Der Client-PC 10 zeigt das bearbeitete Video, das durch Durchführen des Maskierens auf dem Maskierungszielbereich mit Ausnahme des Nichtzielmaskierungsbereiches (vergleiche Rahmen JGA1, der in 8 gezeigt ist) des gesamten Bereiches des aufgenommenen Videos MV1 durchgeführt wird, unter Verwendung der Kameraeinstellungsinformation, die für jede Kamera erzeugt ist, erlangt wird, auf dem Monitor DP. Entsprechend kann beispielsweise der Client-PC 10 das Video, dessen Sichtbarkeit des weiten Bereiches von Interesse des Nutzers des aufgenommenen Videos sichergestellt ist, ausgeben und die Person, die in dem Video des Maskierungszielbereiches erscheint, mit dem Maskenbild ersetzen und das Video anzeigen. Somit ist es schwierig, die Person innerhalb des Maskierungszielbereiches zu spezifizieren, und es ist möglich, dessen Privatsphäre zu schützen.
  • Der Client-PC 10 zeigt den Kameraeinstellungsbildschirm WD1 zum Einstellen wenigstens der Ausführung oder Nichtausführung des Maskierens für jede Kamera auf dem Monitor DP an und wechselt von dem Kameraeinstellungsbildschirm WD1 zu dem Bereichseinstellungsbildschirm WD2 entsprechend der ausgewählten Kamera, um den gewechselten Bildschirm auf dem Monitor DP in einem Fall anzuzeigen, in dem das Ausführen des zu jeder Kamera gehörenden Maskierens auf dem Kameraeinstellungsbildschirm WD1 in Antwort auf die Nutzerbedienung bestimmt ist. Entsprechend kann der Nutzer einfach die Ausführung oder Nichtausführung des Maskierens (MOR-Verarbeitung) auf dem aufgenommenen Video, das durch eine Kamera aufgenommen wird, in dem Kameraeinstellungsbildschirm WD1 festlegen. Nachdem der Nutzer die Ausführung des Maskierens (MOR-Verarbeitung) festlegt und den Einstellungsknopf auf dem Kameraeinstellungsbildschirm WD1 drückt, kann damit der Bereichseinstellungsbildschirm WD2 auf dem Monitor DP angezeigt werden, die Ausführung des Maskierens (MOR-Verarbeitung) und das Einstellen des Nichtzielbereiches kontinuierlich durchgeführt werden.
  • Der Client-PC 10 legt einen viereckigen Bereich, der in dem Anzeigebereich des aufgenommenen Videos MV1 innerhalb des Bereichseinstellungsbildschirms WD2 festgelegt ist, in Antwort auf die Nutzerbedienung als den Nichtzielmaskierungsbereich fest. Entsprechend kann der Nutzer den Abschnitt, dessen Sichtbarkeit sichergestellt ist, unter Verwendung der viereckigen Form durch Einstellen des aufgenommenen Videos MV1, das in dem Bereichseinstellungsbildschirm WD2 angezeigt wird, als Nichtzielmaskierungsbereich auswählen, während dieses aufgenommene Video betrachtet wird.
  • Der Client-PC 10 legt den polygonalen Bereich (beispielsweise fünfeckiger Bereich), der in dem Anzeigebereich des aufgenommenen Videos MV1 innerhalb des Bereichseinstellungsbildschirms WD2 bestimmt ist, in Antwort auf die Nutzerbedienung als Nichtzielmaskierungsbereich fest. Entsprechend kann der Nutzer den Abschnitt, dessen Sichtbarkeit sichergestellt ist, unter Verwendung der polygonalen Form (beispielsweise fünfeckiger Bereich) durch Einstellen des aufgenommenen Videos MV1, das in dem Bereichseinstellungsbildschirm WD2 angezeigt wird, als Nichtzielmaskierungsbereich auswählen, während dieses aufgenommene Video betrachtet wird.
  • Der Client-PC 10 zeigt den Kameraeinstellungsbildschirm WD1 zum Einstellen wenigstens des Ausführens oder Nichtausführens des Maskierens für jede Kamera auf dem Monitor DP an, ordnet die anfängliche Lerndauer, während der das Hintergrundbild des aufgenommenen Videos MV1 während des Maskierens erzeugt wird, mit der normalen Lerndauer, während welcher das Hintergrundbild während des Maskierens aktualisiert wird, für jede Kamera in Antwort auf die Nutzerbedienung auf dem Kameraeinstellungsbildschirm WD1 zu und speichert die zugeordnete Information in dem Speicher 15 oder dem Speicher 16.
  • Entsprechend kann der Nutzer individuell die Zeitdauern des anfänglichen Lernens und des normalen Lernens des Hintergrundbildes in dem Maskieren (MOR-Verarbeitung), das in dem Client-PC durchgeführt wird, für jede Kamera durch die einfache Bedienung des Nutzers festlegen, sodass diese Lerndauern für die Umgebung des Ortes, an dem verschiedene Kameras installiert sind, angemessen ist, und demnach ist es möglich, die Bequemlichkeit für den Nutzer zu verbessern. Entsprechend kann der Client-PC 10 das Hintergrundbild erzeugen und aktualisieren, um für Verhaltenscharakteristiken (beispielsweise ein Ort, an dem die Bewegung der Person groß ist oder ein Ort, an dem die Bewegung der Person geringer ist) der Person, die um die Kamera herum existiert, in Abhängigkeit von der Umgebung (beispielsweise dem Ort), in welcher die Kamera (beispielsweise PTZ-Kamera CAM13) eingestellt ist, angemessen zu sein, und somit kann der Client-PC das bearbeitete Video anzeigen, das erlangt wird, nachdem in Abhängigkeit von der Umgebung ein angemessenes Maskieren durchgeführt wird.
  • Hintergrund des Inhalts der zweiten beispielhaften Ausführungsform
  • Gemäß der PTL 1 wird, nachdem ein Maskenbild für jede Eigenschaft (beispielsweise Geschlecht oder Alter) einer Person und Positionsinformation einer Person, die in einem Überwachungsbereich innerhalb eines bewegten Bildes erkannt wird, erzeugt wird, die Privatsphäre unter Verwendung des Maskenbildes sichergestellt und somit ist es möglich, das Verhalten der Person innerhalb eines Ladens zu erkennen.
  • Allerdings berücksichtigt PTL 1 den Fall nicht, in dem die Kamera den Bildbereich der in dem bewegten Bild erkannten Person zu dem Maskenbild ändert und die Empfangsvorrichtung (beispielsweise von dem Nutzer verwendeter Client-PC), die das bewegte Bild von der Kamera empfängt, das Maskieren durchführt.
  • Der Client-PC ist somit nicht in der Lage, das Einstellen des Ausführens oder Nichtausführens des Maskierens für jedes aufgenommene Video individuell durchzuführen, während der Client-PC verschiedene aufgenommene Videos, die von der Vielzahl von Kameras aufgenommen wurden, empfängt, diese aufteilt und die aufgenommenen Videos auf dem Monitor anzeigt, und somit ist der Komfort des Nutzers schlecht. Beispielsweise in einem Fall, in dem die Einstellung vorher durchgeführt wurde, sodass das Maskieren von der Kamera durchgeführt wird, kann der Client-PC für eine Zeitdauer, während welcher das von dieser Kamera verteilte Video auf dem Monitor des Client-PCs angezeigt wird, nicht in der Lage sein, die Einstellung zu einer anderen Einstellung zu ändern, um zu verursachen, dass das Maskieren der Kamera für eine Zeitdauer, während welcher das Video auf dem Monitor angezeigt wird, nicht durchzuführen ist, so lange, bis das Aufnehmen der Kamera einmal angehalten wird und die Einstellung zu einer anderen Einstellung geändert wird, um zu verursachen, dass das Maskieren der Kamera nicht durchgeführt wird.
  • Somit werden Beispiele eines Überwachungssystems und eines Videoanzeigeverfahrens, die in der Lage sind, die Nutzerannehmlichkeit zu verbessern, indem ein einfaches Einstellen der Einstellung des Ausführens oder Nichtausführens des Maskierens auf jedem aufgenommenen Video für jedes aufgenommene Video erfolgt, wenn eine Vielzahl von Arten verschiedener aufgenommener Videos geteilt und auf dem Monitor angezeigt werden, in einer zweiten beispielhaften Ausführungsform beschrieben.
  • Zweite beispielhafte Ausführungsform
  • Das Überwachungskamerasystem 100, das in der ersten beispielhaften Ausführungsform beschrieben wurde, wird als ein Überwachungssystem gemäß der zweiten beispielhaften Ausführungsform beschrieben. Eine interne Konfiguration des Überwachungskamerasystems 100 gemäß der zweiten beispielhaften Ausführungsform ist die gleiche wie die des Überwachungskamerasystems 100 gemäß der ersten beispielhaften Ausführungsform und somit wird die Beschreibung der gleichen Inhalte vereinfacht oder weggelassen. Unterschiedliche Inhalte werden beschrieben.
  • 15A und 15B sind Diagramme, die Anzeigebeispiele zeigen, in welchen aufgenommene Videos einer Vielzahl von Kameras in drei Anzeigen aufgeteilt sind. 15C ist ein Diagramm, das ein Anzeigebeispiel zeigt, in welchem die aufgenommenen Videos der Vielzahl von Kameras in vier Anzeigen aufgeteilt sind.
  • Es wird angenommen, dass der Client-PC 10 individuell verschiedene aufgenommene Videos empfängt, die von der Vielzahl von Kameras (beispielsweise omnidirektionale Kamera CAM11 und PTZ-Kameras CAM12 und CAM13) verteilt (übertragen) werden. In einem Fall, in dem das Ausführen des Maskierens (MOR-Verarbeitung) in jeder Kamera auf dem Kameraeinstellungsbildschirm WD1 (vgl. 6) festgelegt ist, erzeugt der Prozessor 11 bearbeitete Videos MV2, MV3 und MV4, die nach dem Maskieren zum Verändern (Ersetzen) der Person des erlangten Videos daraus zu (mit) dem Maskenbild gemäß dem Verfahren, das in 11 und 12 gezeigt ist und in dem Maskierungsprozessor 114 durchgeführt wird, erhalten wird. Der Prozessor 11 kann einen Videoanzeigebildschirm WD5a oder einen Videoanzeigebildschirm WD5b auf dem Monitor DP anzeigen, der durch Aufteilen der bearbeiteten Videos MV2, MV3 und MV4, die durch den Maskierungsprozessor 114 erzeugt wurden, in drei Teile in der Videoausgabesteuerung 115 projiziert wird (vergleiche 15A und 15B).
  • Auf dem Videoanzeigebildschirm WD5a der 15A ist der Anzeigebereich des bearbeiteten Videos MV2 an dem gesamten Anzeigebereich 3DV1 des bearbeiteten Videos größer als die Anzeigebereiche der anderen bearbeiten Videos MV3 und MV4. Auf dem Videoanzeigebildschirm WD5b der 15B ist der Anzeigebereich des bearbeiten Videos MV4 an dem gesamten Anzeigebereich 3DV2 des bearbeiteten Videos größer als die Anzeigebereiche der anderen bearbeiteten Videos MV2 und MV3. Der Prozessor 11 kann von der dreigeteilten Anzeigeform, die in 15A gezeigt ist, zu der festgelegten Anzeigeform (beispielsweise der dreigeteilten Anzeigeform, die in 15B gezeigt ist oder der viergeteilten Anzeigeform, die in 15C gezeigt ist) in Antwort auf die auf dem Anzeigewechselkasten CGB1, der in 15A, 15B oder 15C gezeigt ist, durchgeführte Nutzerbedienung, wechseln. Hier wird, um zu verhindern, dass die Zeichnungen der 15A und 15B kompliziert sind, der Anzeigewechselkasten CGB1 in 15A und 15B nicht gezeigt. Der Prozessor 11 kann durch die Nutzerbedienung in der dreigeteilten Anzeigeform, die in 15A oder 15B gezeigt ist, das bearbeitete Video festlegen, das den maximierten Anzeigebereich hat.
  • Es wird angenommen, dass der Client-PC 10 verschiedene aufgenommene Videos, die von der Vielzahl von Kameras (beispielsweise omnidirektionale Kamera CAM11, PTZ-Kameras CAM12 und CAM13 und feste Kamera CAM14) verteilt (übertragen) werden, individuell empfängt. In einem Fall, in dem das Ausführen des Maskierens (MOR-Verarbeitung) in jeder Kamera in dem Kameraeinstellbildschirm WD1 (vergleiche 6) festgelegt ist, erzeugt der Prozessor 11 bearbeitete Videos MV2, MV3, MV4 und MV5, die erlangt werden, nachdem das Maskieren gemäß dem Verarbeitungsverfahren, das in 11 und 12 gezeigt ist, in dem Maskierungsprozessor 114 durchgeführt wird, um die Person des aufgenommenen Videos zu (durch) das Maskenbild zu ändern (ersetzen). Der Prozessor 11 kann den Videoanzeigebildschirm WD6 auf dem Monitor DP anzeigen, der durch Aufteilen der bearbeiteten Videos MV2, MV3, MV4 und MV5, die durch den Maskierungsprozessor 114 erzeugt wurden, in vier in der Videoausgabesteuerung 115 projiziert wird (vergleiche 15C).
  • Auf dem Videoanzeigebildschirm WD6 der 15C sind die Anzeigebereiche von vier bearbeiteten Videos MV2, MV3, MV4 und MV5 in dem gesamten Anzeigebereich 4DV1 des bearbeiteten Videos gleich.
  • In 15A, 15B und 15C werden die bearbeiteten Videos angezeigt, die erlangt werden, nachdem das Maskieren auf den auf allen Videoanzeigebildschirmen WD5a, WD5b und WD6 durch Verwenden des Prozessors 11 durchgeführt wird. Hier kann wenigstens ein Video ein aufgenommenes Video sein, auf dem das Maskieren nicht durchgeführt wird. Dies wird in Abhängigkeit von der Einstellungsinformation bestimmt, die angibt, ob das Maskieren (MOR-Verarbeitung) für jede Kamera auf dem Anzeigebildschirm WD1 ausgeführt wird oder nicht ausgeführt wird. Mit anderen Worten kann der Client-PC 10, wenn die Vielzahl von Videos aufgeteilt und angezeigt wird, die Videos unter Verwendung der bearbeiteten Videos, die durch Durchführen des zu jeder Kamera entsprechenden Maskierens erlangt werden, oder der aufgenommenen Videos, die empfangen werden, ohne dass das Maskieren auf den Videos durchgeführt wird, gemäß der Kameraeinstellungsinformation, die durch den Nutzer auf dem Kameraeinstellungsbildschirm WD1 festgelegt ist, aufteilen und anzeigen.
  • Beispielsweise dann, wenn die viergeteilte Anzeigeform angezeigt wird, führt der Client-PC 10 das Maskieren auf einem aufgenommenen Video, das von der Kamera verteilt wird, die in der Nähe des Eingangs der Firma des Nutzers installiert ist, nicht durch und zeigt das aufgenommene Video auf dem Videoanzeigebildschirm (beispielsweise Videoanzeigebildschirm WD6) ohne Verändern des aufgenommenen Videos an. Das Maskieren wird auf drei aufgenommenen Videos, die von einer Vielzahl anderer Kameras (drei Kameras) verteilt werden, die innerhalb des Gebäudes der Firma installiert sind, durchgeführt und eine Vielzahl bearbeiteter Videos, die durch Durchführen des Maskierens erlangt werden, können auf den verbleibenden Anzeigebereichen des gleichen Videoanzeigebildschirms angezeigt werden. Entsprechend kann ein Nutzer (beispielsweise Überwachungspersonal) angemessen bestimmen, ob eine Person, die an einem Ort erscheint, zu spezifizieren ist oder nicht, um für die Umstände des Installationsortes jeder Kamera passend zu sein, und kann die Information, die angibt, ob die Person zu spezifizieren ist oder nicht, für jede Kamera festlegen. Beispielsweise kann der Nutzer das Gesicht der Person des aufgenommenen Videos des Ortes, für den die Erkennung des Gesichtes gewünscht ist, erkennen, wohingegen es, nachdem das Gesicht der Person an dem Ort, an dem es nicht nötig ist, das Gesicht zu erkennen, oder an dem Ort, an dem die Erkennung des Gesichtes verboten ist, zu dem Maskenbild geändert wird, möglich ist, den Schutz der Privatsphäre der Person zu wahren.
  • Im Folgenden wird ein erstes Betriebsverfahren der aufgeteilten Anzeige des Client-PCs 10 gemäß der vorliegenden beispielhaften Ausführungsform mit Verweis auf 16 beschrieben. 16 ist ein Flussdiagramm zum detaillierten Beschreiben eines Beispiels eines Betriebsverfahrens, das in dem Client-PC 10 gemäß der zweiten beispielhaften Ausführungsform durchgeführt wird, wenn die aufgenommenen Videos der Vielzahl von Kameras angezeigt werden. Die in 16 gezeigte Verarbeitung wird durch den Client-PC 10 für jede Kamera durchgeführt, die aufgenommenes Video an den Client-PC 10 verteilt.
  • In 16 bestimmt der Maskierungseinsteller 113 des Prozessors 11, ob das aufgenommene Video der Kamera, das durch den Client-PC 10 als ein aufgeteiltes Anzeigeziel empfangen wird, erlangt wird oder nicht (S31). In einem Fall, in dem bestimmt wird, dass das aufgenommene Video der Kamera als das aufgeteilte Anzeigeziel nicht erlangt wird (S31, NEIN), wartet der Maskierungseinsteller 113, bis das aufgenommene Video der Kamera als das aufgeteilte Anzeigeziel erlangt wird (S32). In diesem Fall wird, nachdem das aufgenommene Video von der Kamera nicht als das aufgeteilte Anzeigeziel erlangt wird, die Videoausgabesteuerung 115 kein Video auf dem Monitor DP anzeigen. Das heißt, der Anzeigebereich innerhalb des Videoanzeigebildschirms des Monitors DP wird leer. Alternativ, wenn es das aufgenommene Video gibt, das bereits durch den Client-PC 10 empfangen wird, kann die Videoausgabesteuerung 115 dieses aufgenommene Video in dem Anzeigebereich innerhalb des Videoanzeigebildschirms des Monitors DP anzeigen.
  • In einem Fall, in dem bestimmt wird, dass das aufgenommene Video der Kamera als das aufgeteilte Anzeigeziel erlangt wird (S31, JA), liest der Maskierungseinsteller 113 den Datensatz durch Verweis auf den Datensatz der zugehörigen Kamera der in dem Speicher 15 oder dem Speicher 16 gespeicherten Kameraeinstellungsinformation basierend auf der Identifikationsinformation der Kamera, die in dem aufgenommenen Video enthalten ist (S33). Der Maskierungseinsteller 113 bestimmt, ob die Einstellung, die angibt, dass das Maskieren (MOR-Verarbeitung) auf dem aufgenommenen Video durchgeführt wird, in dem oder nicht in dem ausgelesenen Datensatz durchgeführt wird, oder nicht (S34).
  • In einem Fall, in dem bestimmt wird, dass die Einstellung, die angibt, dass das Maskieren (MOR-Verarbeitung) durchgeführt wird, in dem ausgelesenen Datensatz durchgeführt wird (S34, JA), benachrichtigt der Maskierungseinsteller 113 den Maskierungsprozessor 114 über die Benachrichtigung, die angibt, dass diese Einstellung durchgeführt wird. Der Maskierungsprozessor 114 führt das Maskieren (MOR-Verarbeitung), das in 11 und 12 beschrieben ist, auf dem aufgenommenen Video der zugehörigen Kamera in Antwort auf die Benachrichtigung von dem Maskierungseinsteller 113 durch und erzeugt das bearbeitete Video, das erlangt wird, nachdem das Maskieren durchgeführt wird (S35). Die Videoausgabesteuerung 115 zeigt das bearbeitete Video, das in Schritt S35 erzeugt wird, in dem zugehörigen Anzeigebereich (beispielsweise dem Anzeigebereich des bearbeiteten Videos MV2 der 15A) innerhalb des Videoanzeigebildschirms des Monitors DP an (S35).
  • Währenddessen benachrichtigt der Maskierungseinsteller 113 in einem Fall, in dem bestimmt wird, dass die Einstellung, die angibt, dass das Maskieren (MOR-Verarbeitung) durchgeführt wird, in dem gelesenen Datensatz nicht durchgeführt wird (S34, NEIN), die Videoausgabesteuerung 115 über die Benachrichtigung, die angibt, dass das ursprünglich aufgenommene Video (das heißt, das aufgenommene Video, das durch das Aufnehmen erlangt wird, auf welchem das Maskieren nicht durchgeführt wird; das Gleiche findet im Folgenden Anwendung) angezeigt wird (S36). Die Videoausgabesteuerung 115 zeigt das ursprünglich aufgenommene Video, in Antwort auf die Benachrichtigung von dem Maskierungseinsteller 113, an (S36).
  • Nach dem Schritt S35 oder dem Schritt S36 endet die Verarbeitung des Prozessors 11, die in 16 gezeigt ist, in einem Fall, in dem die aufgeteilte Anzeige des Client-PCs 10 beendet wird (S37, JA). Gleichsam kehrt die Verarbeitung des Prozessors 11 zu dem Schritt S31 zurück, wenn nach den Schritten S35 und S36 die aufgeteilte Anzeige des Client-PCs 10 nicht endet (S37, NEIN).
  • 17 ist ein Diagramm, das ein Anzeigebeispiel zeigt, in welchem ein aufgenommenes Video einer Kamera und eine Vielzahl verschiedener vergangener aufgenommener Videos der gleichen Kamera in vier Teile aufgeteilt sind. Es wird angenommen, dass der Client-PC 10 das aktuell aufgenommene Video (Echtzeitvideo) empfängt, das von einer Kamera (beispielsweise der festen Kamera CAM14) verteilt (übertragen) wird und eine Vielzahl verschiedener aufgezeichneter Videos, die von einem Recorder (beispielsweise dem Recorder REC1) verteilt werden, empfängt. Die Vielzahl verschiedener aufgezeichneter Videos sind Videos, die in der Vergangenheit durch die Kamera (beispielsweise die feste Kamera CAM14) aufgenommen wurden, die das aktuelle aufgenommene Video (Echtzeitvideo) verteilt. In einem Fall, in dem die Ausführung des Maskierens (MOR-Verarbeitung) in jeder Kamera in dem Kameraeinstellungsbildschirm WD1 (vgl. 6) festgelegt ist, erzeugt der Prozessor 11 das bearbeitete Video MV6 und bearbeitete aufgezeichnete Videos MV7, MV8 und MV9, die erlangt werden, nachdem das Maskieren zum Verändern (Ersetzen) der Personen des aufgenommenen Videos und der aufgezeichneten Videos zu (mit) den Maskenbildern gemäß den Verarbeitungsaufgaben, die in 11 und 12 gezeigt sind, in dem Maskierungsprozessor 114 durchgeführt wird. Der Prozessor 11 kann den Videoanzeigebildschirm WD7 anzeigen, der durch Aufteilen der bearbeiteten Videos MV6 und des bearbeiteten aufgezeichneten Videos MV7, MV8 und MV9, die durch den Maskierungsprozessor 114 erzeugt wurden, in der Videoausgabesteuerung 115 in vier Teile auf den Monitor DP projiziert werden (vergleiche 17).
  • Auf dem Videoanzeigebildschirm WD7 der 17 sind die Anzeigebereiche der vier Videos (spezifischer, das bearbeitete Video MV6 und die bearbeiteten aufgezeichneten Videos MV7, MV8 und MV9) in dem gesamten Anzeigebereich 4DV2 des bearbeiteten Videos und der bearbeiteten aufgezeichneten Videos gleich. Die bearbeiteten aufgezeichneten Videos MV7, MV8 und MV9 sind in deren Aufnahmedaten und -zeiten später oder früher in der Reihenfolge des bearbeiteten aufgezeichneten Videos MV7, des bearbeiteten aufgezeichneten Videos MV8 und des bearbeiteten aufgezeichneten Videos MV9. Entsprechend kann, nachdem das bearbeitete Video oder das bearbeitete aufgezeichnete Video, das durch Durchführen des Maskierens (MOR-Verarbeitung) auf dem aktuell aufgenommenen Video, das von der gleichen Kamera aufgenommen wird, und dem aufgezeichneten Video, das in der Vergangenheit aufgenommen wurde, erlangt wird, aufgeteilt werden und auf dem Monitor DP angezeigt werden, der Client-PC 10 wirksam den Nutzer beim Verfolgen der Person oder im Erkennen des Verhaltens unterstützen.
  • Im Folgenden wird ein zweites Betriebsverfahren der aufgeteilten Anzeige des Client-PCs 10 gemäß der vorliegenden beispielhaften Ausführungsform mit Verweis auf 18 beschrieben. 18 ist ein Flussdiagramm zum detaillierten Beschreiben eines Beispiels des Betriebsverfahrens, das in dem Client-PC 10 gemäß der zweiten beispielhaften Ausführungsform durchgeführt wird, wenn das aufgenommene Video der Kamera und das aufgezeichnete Video von dem Recorder angezeigt werden. Die in 18 gezeigte Verarbeitung wird in dem Client-PC 10 für jede Kamera durchgeführt, die das aktuelle aufgenommene Video (Echtzeitvideo) verteilt, oder für jeden Recorder, der das vergangene aufgezeichnete Video, das durch die Kamera aufgenommen wurde, an den Client-PC 10 verteilt.
  • In einem Fall, in dem das Verarbeiten, das in 18 gezeigt ist, oder das Verarbeiten, das in 16 gezeigt ist, gleich ist, wird der Verarbeitung die gleiche Nummer des Schrittes zugeordnet wie die Nummer des Schrittes der in 16 gezeigten Verarbeitung und die Beschreibung davon wird vereinfacht oder weggelassen. Unterschiedliche Inhalte werden beschrieben.
  • In 18 bestimmt ein Maskierungseinsteller 113 des Prozessors 11, ob das aufgenommene Video von der Kamera oder das aufgezeichnete Video von dem Recorder, das als das geteilte Anzeigeziel durch den Client-PC 10 empfangen wird, erlangt wird (S31A) oder nicht. In einem Fall, in dem bestimmt wird, dass das aufgenommene Video von der Kamera oder das aufgezeichnete Video von dem Recorder nicht erlangt wird (S31A, NEIN), wartet der Maskierungseinsteller 113, bis das aufgenommene Video von der Kamera oder das aufgezeichnete Video von dem Recorder erlangt wird (S32). Wenn der Recorder angefragt wird, entsprechendes aufgezeichnetes Video durch das Bestimmen des Aufnahmedatums und der Aufnahmezeit durch den Nutzer zu verteilen, kann der Client-PC 10 das entsprechende aufgezeichnete Video, das von dem Recorder verteilt wird, empfangen und kann das empfangene Video erlangen. Das Gleiche trifft auf die jeweiligen beispielhaften Ausführungsformen zu.
  • In einem Fall, in dem bestimmt wird, dass das aufgenommene Video von der Kamera oder das aufgezeichnete Video von dem Recorder als das aufgeteilte Anzeigeziel (S31A, JA), erlangt wird, liest der Maskierungseinsteller 113 den Datensatz durch Verweis auf den Datensatz der entsprechenden Kamera der Kameraeinstellungsinformation, die in dem Speicher 15 oder dem Speicher 16 gespeichert ist, basierend auf Identifikationsinformation der Kamera, die in dem aufgenommenen Video oder dem aufgezeichneten Video (S33A) enthalten ist. Der Maskierungseinsteller 113 bestimmt, ob die Einstellung, die angibt, dass das Maskieren (MOR-Verarbeitung) auf dem aufgenommenen Video oder dem aufgezeichneten Video durchzuführen ist, in dem gelesenen Datensatz durchzuführen ist oder nicht (S34A).
  • In einem Fall, in dem bestimmt wird, dass die Einstellung, die angibt, dass das Maskieren (MOR-Verarbeitung) durchgeführt wird, in dem gelesenen Datensatz durchgeführt wird (S34A, JA), benachrichtigt der Maskierungseinsteller 113 den Maskierungsprozessor 114 über die Benachrichtigung, die angibt, dass eine solche Einstellung durchgeführt wird. Der Maskierungsprozessor 114 führt das Maskieren (MOR-Verarbeitung), das in 11 und 12 gezeigt ist, auf dem aufgenommenen Video von der entsprechenden Kamera oder dem aufgezeichneten Video von dem Recorder in Antwort auf die Benachrichtigung von dem Maskierungseinsteller 113 durch und erzeugt das bearbeitete Video oder das bearbeitete aufgezeichnete Video, das erlangt wird, nachdem das Maskieren durchgeführt wird (S35A). Die Videoausgabesteuerung 115 zeigt das bearbeitete Video oder das bearbeitete aufgezeichnete Video, das in Schritt S35 erzeugt wurde, in dem zugehörigen Anzeigebereich (beispielsweise dem Anzeigebereich des bearbeiteten Videos MV6 oder des bearbeiteten aufgezeichneten Videos MV7 der 17) innerhalb des Videoanzeigebildschirms des Monitors DP an (S35A).
  • Währenddessen wird in einem Fall, in dem bestimmt wird, dass die Einstellung, die angibt, dass das Maskieren (MOR-Verarbeitung) durchgeführt wird, in dem gelesenen Datensatz nicht durchgeführt wird (S34A, NEIN), der Maskierungseinsteller 113 die Videoausgabesteuerung 115 über die Benachrichtigung benachrichtigen, die angibt, dass das ursprünglich aufgenommene Video oder das aufgezeichnete Video angezeigt wird (S36A). Die Videoausgabesteuerung 115 zeigt das ursprüngliche aufgenommene Video oder das aufgezeichnete Video, das durch den Client-PC 10 von der Kamera empfangen wird, in dem entsprechenden Anzeigebereich (beispielsweise dem Anzeigebereich des bearbeiteten Videos MV6 oder des bearbeiteten aufgezeichneten Videos MV7 der 17) innerhalb des Videoanzeigebildschirms des Monitors DP in Antwort auf die Benachrichtigung von dem Maskierungseinsteller 113 an (S36A).
  • Wie oben beschrieben umfasst das Überwachungskamerasystem 100 gemäß der zweiten beispielhaften Ausführungsform die Vielzahl von Kameras (beispielsweise omnidirektionale Kamera CAM11), die den Aufnahmebereich aufnehmen, und den Client-PC 10, der die Einstellungsinformation erhält, die die Ausführung oder Nichtausführung des Maskierens zum Ändern wenigstens eines Teils des bewegten Objektes (beispielsweise der Person), das in dem aufgenommenen Video des Aufnahmebereiches erscheint, der durch jede Kamera aufgenommen wird, zu dem Maskenbild für jede Kamera angibt. Der Client-PC 10 teilt die bearbeiteten Videos, die durch Durchführen des Maskierens auf den aufgenommenen Videos, die durch die Vielzahl von Kameras, für welche das Ausführen des Maskierens festgelegt ist, aufgenommen werden, erlangt werden, oder die bearbeiteten Videos, die durch Durchführen des Maskierens auf den aufgenommenen Videos, die durch eine Kamera, für welche das Ausführen des Maskierens festgelegt ist, aufgenommen werden, erlangt werden und die aufgenommenen Videos, die durch wenigstens eine Kamera aufgenommen werden, für welche die Nichtausführung des Maskierens festgelegt ist, auf und zeigt sie auf dem Monitor DP an.
  • Ähnlich zu der ersten beispielhaften Ausführungsform kann der Client-PC 10 gemäß der zweiten beispielhaften Ausführungsform das Maskieren zum Ersetzen wenigstens eines Teils oder des gesamten der Person, die in dem aufgenommenen Video erscheint und sich bewegt, mit dem Maskenbild durchführen. Entsprechend ist es möglich, wenn die Vielzahl verschiedener aufgenommener Videos aufgeteilt und auf dem Monitor DP angezeigt wird, nachdem der Client-PC 10 einfach die Einstellung des Ausführens oder Nichtausführens des Maskierens für jede Kamera als Verteilungsquelle (Übertragungsquelle) des aufgenommenen Videos, das durch den Client-PC 10 empfangen wird, festlegen kann, die Bequemlichkeit des Nutzers zu verbessern. Somit ist es möglich, nachdem der Client-PC 10 die Einstellung des Ausführens oder Nichtausführens des Maskierens für jedes aufgenommene Video als geteiltes Anzeigeziel variieren kann, um für die Gegebenheiten des Installationsortes der Kamera angemessen zu sein, zur hochgenauen Marketinganalyse oder angemessenen Überwachungsdienstleistung des Nutzers beizutragen.
  • Das Überwachungskamerasystem 100 gemäß der zweiten beispielhaften Ausführungsform umfasst weiter den Recorder (beispielsweise REC1), der das aufgenommene Video des Aufnahmebereiches, das durch jede Kamera aufgenommen ist, als aufgezeichnetes Video speichert, um dem aufgenommenen Video das Aufnahmedatum und die Aufnahmezeit zuzuordnen. Der Client-PC 10 teilt das bearbeitete Video, das durch Durchführen des Maskierens auf dem aufgenommenen Video, das durch die Kamera, für welche das Ausführen des Maskierens festgelegt ist, aufgenommen wird, erlangt wird, und die bearbeiteten aufgezeichneten Videos, die durch Durchführen des Maskierens auf der Vielzahl aufgezeichneter Videos, die zu verschiedenen Aufnahmedaten und -zeiten in der Vergangenheit durch die Kamera aufgenommen wurden, für welche das Ausführen des Maskierens festgelegt ist und die in dem Recorder gespeichert sind, erlangt werden, auf und zeigt sie auf dem Monitor DP an.
  • Entsprechend ist es, nachdem der Client-PC 10 das bearbeitete Video oder das bearbeitete aufgezeichnete Video, das durch Durchführen des Maskierens (MOR-Verarbeitung) auf dem aktuellen aufgenommenen Video, das durch die gleiche Kamera aufgenommen wird, und dem aufgezeichneten Video, das in der Vergangenheit aufgenommen wurde, erlangt wird, aufteilen und auf dem Monitor DP anzeigen kann, möglich, die Verhaltenserkennung oder das Verfolgen der Person, die in der Nähe des Installationsortes der Kamera erscheint, beispielsweise für Überwachungsdienstleistungen oder Marketinganalyse wirksam zu unterstützen.
  • Hintergrund des Inhalts der dritten beispielhaften Ausführungsform
  • Gemäß der PTL 1 wird, nachdem ein Maskenbild für jede Eigenschaft (beispielsweise Geschlecht oder Alter) einer Position und Positionsinformation einer Person, die in einem Überwachungsbereich innerhalb eines bewegten Bildes erkannt wird, erzeugt wird, die Privatsphäre unter Verwendung des Maskenbildes sichergestellt, und somit ist es möglich, das Verhalten der Person innerhalb eines Ladens zu erkennen.
  • Allerdings berücksichtigt PTL 1 den Fall nicht, in dem die Kamera den Bildbereich der in dem bewegten Bild erkannten Person zu dem Maskenbild verändert und die Empfangsvorrichtung (beispielsweise ein von dem Nutzer verwendeter Client-PC), die das bewegte Bild von der Kamera empfängt, das Maskieren durchführt.
  • In einem Fall, in dem der Client-PC nicht in der Lage ist, das Maskieren durchzuführen, ist es schwierig, das Maskieren auf dem aufgenommenen Video, das durch eine Kamera, die eine Funktion (im Folgenden als eine „Maskierfunktion“ bezeichnet) des Durchführens des Maskierens nicht hat, durchzuführen. Es gibt Schwierigkeiten, die Maskierfunktion der existierenden Kamera, die die Maskierfunktion nicht hat, hinzuzufügen. Somit ist es schwierig, die Überwachungseffizienz zu verbessern oder die Marketinganalysegenauigkeit zu verbessern.
  • Somit werden Beispiele eines Überwachungssystems und eines Videoanzeigeverfahrens, das geeignet ist, die Überwachungseffizienz oder die Marketinganalysegenauigkeit durch angemessenes Durchführen des Maskierens auf dem aufgenommenen Video, das durch die Kamera, die die Maskierfunktion nicht hat, aufgenommen wird, zu verbessem, ohne die Maskierfunktion der Kamera, die die Maskierfunktion nicht hat, separat hinzuzufügen, in einer dritten beispielhaften Ausführungsform beschrieben.
  • Dritte beispielhafte Ausführungsform
  • Das Überwachungskamerasystem 100, das in der ersten beispielhaften Ausführungsform beschrieben werden, wird als ein Überwachungssystem gemäß der dritten beispielhaften Ausführungsform beschrieben. Eine interne Konfiguration des Überwachungskamerasystems 100 gemäß der dritten beispielhaften Ausführungsform ist die gleiche wie die des Überwachungskamerasystems 100 gemäß der ersten beispielhaften Ausführungsform, weshalb die Beschreibung der gleichen Inhalte vereinfacht oder weggelassen wird. Unterschiedliche Inhalte werden beschrieben.
  • In der dritten und vierten beispielhaften Ausführungsform hat wenigstens die feste Kamera CAM14 des Überwachungskamerasystems 100, das in 1 gezeigt ist, die vorerwähnte Maskierfunktion. Das heißt, die feste Kamera CAM14 kann das Maskieren (MOR-Verarbeitung), das in 11 und 12 gezeigt ist, auf dem aufgenommenen Video, das durch die feste Kamera aufgenommen wird, durchführen. Mit anderen Worten wird in der dritten und vierten beispielhaften Ausführungsform angenommen, dass der Prozessor C11 der festen Kamera CAM14 die gleichen Einheiten wie die Bildeingabe 111, Hintergrundbildprozessor 112, Maskierungseinsteller 113 und Maskierungsprozessor 114 innerhalb des Prozessors C11 des in 3 gezeigten Client-PCs 10 aufweist.
  • Sogar wenn das dem Maskieren in dem Client-PC10 äquivalente Maskieren nicht durchgeführt werden kann (das heißt, das Maskieren wird in dem Bereich mit Ausnahme des Nichtzielmaskierungsbereiches, der in der ersten beispielhaften Ausführungsform beschrieben ist, durchgeführt und basiert auf der Nutzerbedienung), kann die feste Kamera CAM14 das Maskieren durchführen, das beispielsweise in PTL 1 beschrieben ist. Obwohl in der dritten und vierten beispielhaften Ausführungsform beschrieben ist, dass eine Maskierkamera bereitgestellt ist, ist die Anzahl der Maskierkameras nicht auf eins beschränkt und eine Vielzahl von Kameras können als die Maskierkamera betrieben werden.
  • In der dritten und vierten beispielhaften Ausführungsform wird eine Kamera, die die Maskierfunktion hat, der Bequemlichkeit halber als eine „Maskierkamera“ wie die feste Kamera CAM14 bezeichnet und eine Kamera, die die Maskierfunktion nicht hat, wird entsprechend als eine „normale Kamera“ bezeichnet, wie eine andere Kamera mit Ausnahme der festen Kamera CAM14.
  • Im Folgenden wird das Betriebsverfahren, das das Einstellen des Maskierens des Client-PCs 10 und die Anzeige der aufgenommenen Videos gemäß der beispielhaften Ausführungsform betrifft, mit Verweis auf 19 bis 21 beschrieben. 19 ist ein Sequenzdiagramm zum Beschreiben eines Beispiels des Betriebsverfahrens des Maskierens (MOR-Verarbeitung) des Client-PCs 10 auf der Maskenkamera und der normalen Kamera und des Anzeigens des aufgenommenen Videos gemäß der dritten beispielhaften Ausführungsform im Detail. 20 ist ein Diagramm, das ein Beispiel des Kameraeinstellbildschirms der dritten oder vierten beispielhaften Ausführungsform zeigt. 21 ist ein Diagramm, das das viergeteilte Anzeigebeispiel des bearbeiteten Videos zeigt, das durch Durchführen des Maskierens auf dem aufgenommenen Video erlangt wird, das auf dem Monitor DP des Client-PCs 10 angezeigt wird.
  • In 19 überträgt, wenn eine Bedienung zum Beginnen des Betriebs des Client-PCs 10 durch die Nutzerbedienung (S41) durchgeführt wird, beispielsweise in einem Fall, in dem das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens in der Maskierkamera durch die Nutzerbedienung auf dem Kameraeinstellungsbildschirm WD1A (vergleiche 20) bestimmt wird, der Client-PC 10 die Kameraeinstellinformation, die angibt, dass das Ausführen oder Nichtausführen des Maskierens in der Maskierkamera bestimmt ist, und eine Anweisung, die Kameraeinstellinformation einzustellen, an die Maskierkamera (S42).
  • Hier wird der in 20 gezeigte Kameraeinstellbildschirm WD1A beschrieben. Die Beschreibung redundanter oder gleicher Elemente der Elemente des Kameraeinstellbildschirms WD1, der in 6 gezeigt ist, wird vereinfacht oder weggelassen und somit werden nur unterschiedliche Inhalte beschrieben.
  • In 20 ist ein Teil des Kameraeinstellungsbildschirms WD1A extrahiert und gezeigt. Beispielsweise zeigt der Maskierungseinsteller 113 den Kameraeinstellungsbildschirm WD1A in Antwort auf die Nutzerbedienung auf dem Monitor DP an. Beispielsweise können auf dem Kameraeinstellungsbildschirm WD1A wenigstens die IP-Adresse, das Maskieren (MOR-Verarbeitung), das Einstellen des Maskierens (MOR-Verarbeitung), die Anfangslernperiode und die normale Lernperiode für jede Kamera von maximal 64 Kameras (das heißt, einschließlich der omnidirektionalen Kamera, der PTZ-Kamera und der festen Kamera) eingestellt werden, um der Kamera, in Antwort auf die Bedienung des Nutzers, der den Operator 13 verwendet, zugeordnet zu werden. Vier Registerkarten (Kameras 1 bis 16, Kameras 17 bis 32, Kameras 33 bis 48 und Kameras 49 bis 64), die auf dem Kameraeinstellungsbildschirm WD1A bereitgestellt werden, werden gewechselt, und somit können Informationselemente wenigstens der IP-Adresse, des Maskierens (MOR-Verarbeitung), des Einstellens des Maskierens (MOR-Verarbeitung), der Anfangslemperiode und der normalen Lernperiode für die zugehörigen Kameras für je 16 Kameras festgelegt werden.
  • Wenigstens eine der drei Möglichkeiten des Nichtausführens (AUS) des Maskierens, des Ausführens des Maskierens in der Maskierkamera (CAM-MOR) und des Ausführens (AN) des Maskierens (PC-MOR) in dem Client-PC 10 wird in der Spalte CLM2A des Maskierens (MOR-Verarbeitung) ausgewählt (vergleiche Rahmen WK2A). In anderen Worten entspricht das Ausführen (AN) des Maskierens auf dem Kameraeinstellungsbildschirm WD1 der 6 dem Ausführen des Maskierens (CAM-MOR) in der Maskierkamera oder dem Ausführen (AN) des Maskierens (PC-MOR) in dem Client-PC 10 auf dem Kameraeinstellungsbildschirm WD1 der 20.
  • In einem Fall, in dem das Maskieren (CAM-MOR) in der Maskierkamera oder das Maskieren (PC-MOR) in dem Client-PC 10 in der Spalte CLM2A ausgewählt ist, wird ein Einstellungsknopf (vergleiche Rahmen WK1) zum Anzeigen des Bereichseinstellungsbildschirms WD2 zum Einstellen des Nichtzielmaskierungsbereiches in der Spalte CLM3 des Einstellens des Maskierens (MOR-Verarbeitung) angezeigt. Hier wird der Einstellungsknopf der Spalte CLM3 für die Kamera, für die die Nichtausführung (AUS) des Maskierens in Spalte CLM2A ausgewählt ist, nicht drückbar angezeigt (beispielsweise vergleiche gepunktete Linie einer fünften Zeile, einer achten Zeile, einer zehnten Zeile und einer fünfzehnten Zeile der Spalte CLM3 des Ausdrucks der 20).
  • In 19 legt die Maskierkamera das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens, das durch die Kameraeinstellungsinformation bestimmt wird, basierend auf der zusammen mit der Anweisung übertragenen Kameraeinstellungsinformation, die von dem Client-PC in Schritt S42 übertragen wurden, gemäß dieser Anweisung fest und gibt eine Antwort, die angibt, dass das Ausführen oder Nichtausführen des Maskierens festgelegt ist, an den Client-PC 10 zurück (S43).
  • Der Client-PC 10 weist die normale Kamera und die Maskierkamera an, das Aufnehmen zu beginnen und das aufgenommene Video zu verteilen (S44). Die normale Kamera beginnt das Aufnehmen gemäß der Anweisung von dem Client-PC 10 (S45) und fährt dann fort, das durch das Aufnehmen erlangte aufgenommene Video zu verteilen (S47). Der Client-PC 10 empfängt das von der normalen Kamera verteilte aufgenommene Video.
  • Die Maskierkamera beginnt das Aufnehmen gemäß der Anweisung von dem Client-PC 10 (S46) und bestimmt das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens, das in Schritt S43 festgelegt ist. Das heißt, in einem Fall, in dem das Ausführen (AN) des Maskierens in Schritt S43 festgelegt ist, verteilt die Maskierkamera das bearbeitete Video, das durch Durchführen des Maskierens (vergleiche 11 und 12) auf dem aufgenommenen Video, das durch das Aufnehmen erlangt wird, erlangt wird, an den Client-PC 10 und fährt fort, das Video zu verteilen (S48). Währenddessen wird in einem Fall, in dem das Nichtausführen (AUS) des Maskierens im Schritt S43 festgelegt ist, das aufgenommene Video, das durch das Aufnehmen erlangt wird, von der Maskierkamera an den Client-PC 10 ohne das Video zu verändern verteilt und die Maskierkamera fährt fort, das Video zu verteilen (S48).
  • In einem Fall, in dem die Einstellung, die anzeigt, dass die Maskierkamera das Maskieren durchführt, oder die Einstellung, die anzeigt, dass das Maskieren selbst nicht durchgeführt wird, in den Kameraeinstellungsinformationen, die zu der normalen Kamera oder der Maskierkamera gehört, enthalten ist, zeigt der Client-PC 10 das empfangene aufgenommene Video auf dem Monitor DP ohne das Video zu verändern an (S49, vergleiche 21).
  • Währenddessen führt der Client-PC 10 in einem Fall, in dem die Einstellung, die anzeigt, dass der Client-PC 10 das Maskieren durchführt, in den Kameraeinstellungsinformationen, die zu der normalen Kamera oder der Maskierkamera gehören, enthalten ist, das Maskieren (vergleiche 11 und 12) auf dem empfangenen aufgenommen Video durch und zeigt das bearbeitete Video, das durch das Maskieren erlangt wird, auf dem Monitor DP an (S49, vergleiche 21).
  • Auf dem Videoanzeigebildschirm WD7A der 21 sind die vier Anzeigebereiche von vier Videos (insbesondere bearbeitete Videos MV6A, MV7A, MV8A und MV9A) in dem gesamten Anzeigebereich (vergleiche 17) des bearbeiteten Videos gleich. Beispielsweise sind die bearbeiteten Videos MV6A und MV9A bearbeitete Videos, die erlangt werden, indem das Maskieren auf dem in der Maskierkamera aufgenommenen aufgenommenen Video in der Maskierkamera durchgeführt wird und die in dem Client-PC 10 angezeigt werden, ohne verändert zu werden. Beispielsweise ist das bearbeitete Video MV7A ein bearbeitetes Video, das erlangt wird, indem das Maskieren auf dem in der Maskierkamera aufgenommenen aufgenommenen Video nicht in der Maskierkamera durchgeführt wird, sondern durch Durchführen des Maskierens in dem Client-PC 10, und das angezeigt wird. Beispielsweise ist das bearbeitete Video MV8A ein bearbeitetes Video, das erlangt wird, indem das Maskieren auf dem aufgenommenen Video, das in der normalen Kamera aufgenommen wurde, in dem Client-PC 10 durchgeführt wird, und das angezeigt wird. Entsprechend ist es möglich, nachdem der Client-PC 10 das bearbeitete Video, das erlangt wird, indem das Maskieren in der Maskierkamera oder dem Client-PC 10 selbst gemäß der Einstellung des Ausführens (AN) oder Nichtausführens (AUS) entsprechend der normalen Kamera, die die Maskierfunktion nicht besitzt, oder der Maskierkamera, die die Maskierfunktion besitzt, durchgeführt wird, aufteilen kann und auf dem Monitor DP anzeigt, die Überwachungsdienstleitungen oder die Marketinganalyse effizient durchführen, indem die Privatsphäre der Person des aufgenommenen Videos, das durch jede Kamera aufgenommen wird, sichergestellt wird.
  • Wie oben beschrieben umfasst das Überwachungskamerasystem 100 gemäß der dritten beispielhaften Ausführungsform die normale Kamera (beispielsweise omnidirektionale Kamera CAM11), die den Aufnahmebereich aufnimmt und nicht geeignet ist, das Maskieren zum Verändern wenigstens eines Teils des bewegten Objektes (beispielsweise der Person), die in dem aufgenommenen Video des Aufnahmebereiches erscheint, zu dem Maskenbild durchzuführen, und den Client-PC 10, der die Einstellungsinformation erhält, die das Ausführen oder Nichtausführen des Maskierens auf dem aufgenommenen Video angibt. In einem Fall, in dem das Ausführen des Maskierens in dem Client-PC 10 auf dem aufgenommenen Video eingestellt ist, führt der Client-PC 10 das Maskieren auf dem aufgenommenen Video durch und zeigt das durch das Maskieren erlangte bearbeitete Video auf dem Monitor DP an. Währenddessen wird in einem Fall, in dem das Nichtausführen des Maskierens in dem Client-PC 10 auf dem aufgenommenen Video eingestellt ist, von dem Client-PC 10 das aufgenommene Video ohne Verändern des Videos auf dem Monitor DP angezeigt.
  • Gleich wie in der ersten beispielhaften Ausführungsform kann der Client-PC 10 gemäß der dritten beispielhaften Ausführungsform das Maskieren zum Ersetzen wenigstens eines Teiles oder des Gesamten der Person, die in dem aufgenommenen Video erscheint und sich bewegt, mit dem Maskenbild durchführen. Entsprechend kann der Client-PC 10 das Maskieren auf dem aufgenommenen Video, das durch die normale Kamera, die die Maskierfunktion nicht aufweist, aufgenommen wurde, angemessen durchführen, ohne der normalen Kamera, die die Maskierfunktion nicht aufweist, die Maskierfunktion separat hinzuzufügen und kann die Überwachungseffizienz oder Marketinganalysegenauigkeit verbessern.
  • Das Überwachungskamerasystem 100 gemäß der dritten beispielhaften Ausführungsform umfasst weiter die Maskierkamera (beispielsweise feste Kamera CAM14), die den Aufnahmebereich aufnimmt und geeignet ist, das Maskieren zum Verändern wenigstens eines Teils des bewegten Objektes (beispielsweise Person), die in dem aufgenommenen Video des Aufnahmebereichs erscheint, zu dem Maskenbild durchzuführen. Der Client-PC 10 erhält die Einstellungsinformation, die das Ausführen oder Nichtausführen des Maskierens in der Maskierkamera angibt und zeigt das bearbeitete Video basierend auf dem Maskieren in der Maskierkamera auf dem Monitor DP an, ohne das Video in einem Fall zu ändern, in dem das Ausführen des Maskierens in der Maskierkamera eingestellt ist.
  • Entsprechend empfängt der Client-PC 10 in einem Fall, in dem das Maskieren durch die Einstellung des Ausführens des Maskierens auf der Maskierkamera, die bereits die Maskierfunktion aufweist, durchgeführt wird, das bearbeitete Video, das durch die Maskierkamera erzeugt wird und nachdem das Maskieren durchgeführt wird erlangt wird, und zeigt das empfangene Video ohne Verändern des Videos an, und somit ist es möglich, das Ausführen des Maskierens in dem Client-PC 10 wegzulassen. Es ist somit möglich, die Verarbeitungslast zu reduzieren, und es ist möglich, die Last abzuhalten.
  • Das Kameraüberwachungssystem 100 gemäß der dritten beispielhaften Ausführungsform umfasst weiter die Maskierkamera (beispielsweise feste Kamera CAM14), die den Aufnahmebereich aufnimmt und geeignet ist, das Maskieren zum Verändern wenigstens eines Teils des bewegten Objektes (beispielsweise der Person), die in dem aufgenommenen Video des Aufnahmebereichs erscheint, zu dem Maskenbild durchzuführen. Der Client-PC 10 erhält die Einstellungsinformation, die das Ausführen oder Nichtausführen des Maskierens in der Maskierkamera angibt, führt das Maskieren auf dem aufgenommenen Video in einem Fall durch, in dem das Nichtausführen des Maskierens in der Maskierkamera eingestellt ist und zeigt das bearbeitete Video, das durch das Maskieren erlangt wird, auf dem Monitor DP an.
  • Entsprechend kann der Client-PC 10 beispielsweise in einem Fall, in dem der Client-PC eine dem Maskieren in der Maskierkamera (beispielsweise in einem Fall, in dem das Maskieren in dem Bereich mit Ausnahme des Nichtzielmaskierungsbereichs, der in der ersten beispielhaften Ausführungsform beschrieben ist und basierend auf der Nutzerbedienung durchgeführt wird) überlegene Maskierfunktion aufweist, ein bearbeitetes Video erlangen, das, nachdem das Maskieren durchgeführt wird, erlangt wird, um für den Geschmack des Nutzers geeignet zu sein, verglichen mit dem bearbeiteten Video, das durch das in der Maskierkamera durchgeführte Maskieren erlangt wird. Somit ist es möglich, den Komfort des Nutzers zu verbessern.
  • Hintergrund des Inhalts der vierten beispielhaften Ausführungsform
  • Gemäß PTL 1 bleibt, da ein Maskenbild für jedes Attribut (beispielsweise Geschlecht oder Alter) einer Person und Positionsinformation einer in einem Überwachungsbereich innerhalb eines bewegten Bildes detektierten Person erzeugt wird, die Privatsphäre unter Verwendung des Maskenbildes gewahrt, und somit ist es möglich, das Verhalten der Person innerhalb eines Ladens zu erkennen.
  • Allerdings berücksichtigt PTL 1 den Fall nicht, in dem die Kamera den Bildbereich der in dem bewegten Bild detektierten Person zu dem Maskenbild ändert und die Empfangsvorrichtung (beispielsweise der von dem Nutzer verwendete Client-PC), die das bewegte Bild von der Kamera empfängt, das Maskieren durchführt.
  • Das heißt, dass in PTL 1, da nur die Kamera das Maskieren durchführt, die Kamera in der Lage ist, das Maskieren auf dem Echtzeitvideo (aufgenommenen Video), das aktuell aufgenommen wird, durchzuführen, aber nicht in der Lage ist, das Maskieren auf dem vergangenen aufgenommenen Video (im Folgenden als ein „aufgezeichnetes Video“ bezeichnet), das bereits in dem Recorder gespeichert ist, durchzuführen.
  • Somit müssen, beispielsweise wenn ein aufgezeichnetes Video einer bestimmten Art von Ereignis nach dem Ereignis überprüft wird, um die Privatsphäre der Person als Subjekt zu schützen, zwei Arten aufgezeichneter Videos vorbereitet werden, auf die durch eine Person mit Berechtigung (ein Manager oder Ähnliches) und ohne Berechtigung (ein allgemeiner Nutzer) zugegriffen werden kann. Beispielsweise kann die Person mit Berechtigung das aufgezeichnete Video, auf welchem das Maskieren der Person des aufgezeichneten Videos nicht durchgeführt wird, ansehen, und der allgemeine Nutzer sieht das aufgezeichnete Video, das durch Durchführen des Maskierens auf der Person des aufgezeichneten Videos erlangt wird. In solch einem Betrieb wird eine Erhöhung der Speicherkapazität des Recorders zum Aufzeichnen des aufgenommenen Videos der gleichen Szene nicht vermieden. Insbesondere kann die Qualität des aufgenommenen Videos höher (beispielsweise 4K) werden, und die Datenmenge der in dem Recorder gespeicherten aufgenommenen Videos ist enorm.
  • Mit anderen Worten werden, da eine Kamera nicht ausreichend zum Vorbereiten zweier Arten aufgezeichneter Videos ist, zwei Kameras (insbesondere eine Kamera mit einer Funktion (im Folgenden als eine „Maskierfunktion“ bezeichnet) des Durchführens des Maskierens und eine Kamera ohne die Maskierfunktion) benötigt. Somit wird, da die Anzahl der Komponenten in der Systemauslegung erhöht ist, eine Erhöhung der Kosten nicht vermieden, und somit ist auch eine Systemkonfiguration kompliziert. Falls der vorgenannte Client-PC nicht in der Lage ist, das Maskieren durchzuführen, ist die vorliegende beispielhafte Ausführungsform nicht auf den Fall beschränkt, in dem zwei Arten aufgezeichneter Videos benötigt werden in Abhängigkeit davon, ob die Person die Berechtigung hat oder nicht (ob die Person die Managerberechtigung oder die allgemeine Nutzerberechtigung hat oder nicht). Beispielsweise werden zwei Arten aufgezeichneter Videos einschließlich des aufgezeichneten Videos, auf welchem das Maskieren durchgeführt wird, und das aufgezeichnete Video, auf welchem das Maskieren nicht durchgeführt ist, in Abhängigkeit von dem Inhalt oder der Art des Ereignisses benötigt.
  • Somit werden in einer vierten beispielhaften Ausführungsform Beispiele eines Überwachungssystems und eines Videoanzeigeverfahrens, die geeignet sind, die Überwachungseffizienz oder die Marketinganalysegenauigkeit durch einfaches Auswählen, ob das Maskieren durchzuführen ist oder nicht, zu verbessern, indem ein Datenelement des aufgezeichneten Videos verwendet wird, wenn das aufgezeichnete Video des Ereignisses, was durch die Kamera in der Vergangenheit aufgenommen wurde und bereits in dem Recorder gespeichert ist, betrachtet wird.
  • Vierte beispielhafte Ausführungsform
  • Das Überwachungskamerasystem 100, das in der dritten beispielhaften Ausführungsform beschrieben wurde, wird als ein Überwachungssystem gemäß der vierten beispielhaften Ausführungsform beschrieben. Eine interne Konfiguration des Überwachungskamerasystems 100 gemäß der vierten beispielhaften Ausführungsform ist die gleiche wie die des Überwachungskamerasystems 100 gemäß der dritten beispielhaften Ausführungsform, und somit wird die Beschreibung der gleichen Inhalte vereinfacht oder weggelassen. Verschiedene Inhalte werden beschrieben.
  • In der vierten beispielhaften Ausführungsform wird in dem Überwachungskamerasystem 100, das in 1 gezeigt ist, jeder Recorder (das heißt Recorder REC1, REC2 oder REC3), mit welchem wenigstens eine Kamera verbunden ist, mit wenigstens einer mit dem jeweiligen Recorder verbundenen Kamera gepaart (mit anderen Worten zugeordnet). Spezifischer werden die omnidirektionale Kamera CAM11, die PTZ-Kameras CAM12 und CAM13 und die feste Kamera CAM14 mit dem Recorder REC1 gepaart (zugeordnet). Die PTZ-Kamera CAM21 und die feste Kamera CAM22 werden mit dem Recorder REC2 gepaart (zugeordnet). Die omnidirektionale Kamera CAM31, die PTZ-Kameras CAM32 und CAM33 und die feste Kamera CAM34 werden mit dem Recorder REC3 gepaart (zugeordnet). Die Paarungsbeziehung zwischen wenigstens Kamera und Recorder ist nicht auf die vierte beispielhafte Ausführungsform beschränkt und kann auch auf die erste, zweite und dritte beispielhafte Ausführungsform angewandt werden.
  • 22 ist ein Diagramm, das ein Beispiel des Recordereinstellungsbildschirms WD8 zeigt. Der Prozessor 11 des Client-PCs 10 zeigt den Recordereinstellungsbildschirm WD8 in Antwort auf die Nutzerbedienung zum Anzeigen des Recordereinstellungsbildschirms WD8 auf dem Monitor DP an.
  • Das Einstellen des Recorders wird auf dem Recordereinstellungsbildschirm WD8 in Antwort auf die Nutzerbedienung durchgeführt. Beispielsweise kann das Einstellen der IP-Adresse des Recorders, eines Hypertext Transfer Protocol (HTTP) ports des Recorders, einer Bezeichnung, eines File Transfer Protocol (FTP) ports und einer Zeitzone und das Einstellen (Setup) wenigstens einer gepaarten Kamera durchgeführt. Beispielsweise werden die Vorrichtungen, Modelle und IP-Adressen von vier Recordern in 22 illustriert.
  • Auf dem auf dem Monitor DP gezeigten Recordereinstellungsbildschirm WD8 wird, falls „Vorrichtungsverwaltung“ (Vorrichtungsverwalter, vergleiche Rahmen WK4) und „Recorder“ (vergleiche Rahmen WK5) gedrückt werden und in der Reihenfolge der Recorder ausgewählt werden (vergleiche Rahmen WK6) zum Spezifizieren der Recorder durch die Nutzerbedienung, zeigt der Prozessor 11 einen Bearbeiten-Knopf (vergleiche Rahmen WK7) an durch Tauschen des Knopfes, der vor der Auswahl nicht drückbar ist, um drückbar zu sein.
  • Wenn der Bearbeiten-Knopf (vergleiche Rahmen WK7) durch die Nutzerbedienung gedrückt wird, zeigt der Prozessor 11 den Kameraeinstellungsbildschirm (vergleiche 20), der wenigstens eine mit dem Recorder des ausgewählten Eintrags (vergleiche Rahmen WK6) gepaarten Kamera betrifft, auf dem Monitor DP an. Da Elemente, die auf diesem Kameraeinstellungsbildschirm (vergleiche 20) eingestellt werden können, die gleichen wie die in der dritten beispielhaften Ausführungsform (vergleiche 20) beschriebenen Inhalte sind, wird die ausführliche Beschreibung weggelassen.
  • Im Folgenden wird ein Betriebsverfahren, das das Einstellen des Maskierens des Client-PC 10 gemäß der vorliegenden beispielhaften Ausführungsform betrifft, mit Verweis auf 23A und 23B beschrieben. 23A ist ein Sequenzdiagramm zum detaillierten Beschreiben eines ersten Beispiels des Betriebsverfahrens des Einstellens des Maskierens (MOR-Verarbeitung) gemäß der vierten beispielhaften Ausführungsform. 23B ist ein Sequenzdiagramm zum detaillierten Beschreiben eines zweiten Beispiels des Betriebsverfahrens des Einstellens des Maskierens (MOR-Verarbeitung) gemäß der vierten beispielhaften Ausführungsform.
  • In 23A zeigt der Client-PC 10 beispielsweise, wenn ein Vorgang zum Beginnen der Vorrichtungseinstellung des Client-PC 10 durch die Nutzerbedienung durchgeführt wird (S51), den Kameraeinstellungsbildschirm (vergleiche 20), der basierend auf dem Drücken des Bearbeiten-Knopfes (vergleiche Rahmen WK7) des Recordereinstellungsbildschirms WD8 angezeigt wird, auf dem Monitor DP an. Der Client-PC 10 weist den Recorder an, das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens auf der Maskierkamera (das heißt, der festen Kamera CAM14, die zum Ausführen der Maskierfunktion geeignet ist), die mit dem Recorder gepaart ist (beispielsweise Recorder REC1), in Antwort auf die Nutzerbedienung auf diesem Kameraeinstellungsbildschirm einzustellen (S52).
  • Der Recorder (beispielsweise der Recorder REC1) weist die Maskierkamera an, das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens auf der Maskierkamera (das heißt, der festen Kamera CAM14), die mit dem Recorder (beispielsweise dem Recorder REC1) gepaart ist, gemäß der Anweisung von dem Client-PC 10 des Schrittes S52 einzustellen (S53). Die Maskierkamera legt das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens gemäß der Anweisung von dem Recorder aus Schritt S53 fest (S54) und gibt eine Antwort an den Recorder zurück, die angibt, dass das Einstellen beendet ist. Wenn die Antwort, die angibt, dass das Einstellen beendet ist, von der Maskierkamera empfangen wird, gibt der Recorder ebenso die Antwort, die angibt, dass das Einstellen beendet ist, an den Client-PC 10 zurück.
  • Entsprechend ist der Client-PC 10 beispielsweise in einem Fall, in dem der Client-PC 10 und die Maskierkamera nicht in der gleichen Filiale oder dem gleichen Laden präsent sind, nicht in der Lage, das Einstellen des Maskierens auf der Maskierkamera direkt durchzuführen, aber ist in der Lage, das Einstellen des Maskierens auf der Maskierkamera von dem Client-PC 10 reibungslos durchzuführen, indem der Recorder verwendet wird, der die Datenübertragung und den Empfang zwischen dem Client-PC 10 und der Maskierkamera weiterleitet.
  • In 23B zeigt der Client-PC 10 beispielsweise dann, wenn der Vorgang zum Starten der Vorrichtungseinstellung des Client-PCs 10 durch die Nutzerbedienung (S51) durchgeführt wird, den Kameraeinstellungsbildschirm (vergleiche 20), der basierend auf dem Drücken des Bearbeiten-Knopfes (vergleiche Rahmen WK7) des Recordereinstellungsbildschirms WD8 angezeigt wird, auf dem Monitor DP an. Der Client-PC 10 weist das Einstellen des Ausführens (AN) oder Nichtausführens (AUS) des Maskierens auf der Maskierkamera (das heißt der festen Kamera CAM14, die zum Ausführen der Maskierfunktion geeignet ist), die mit dem Recorder (beispielsweise dem Recorder REC1) gepaart ist, auf der Maskierkamera in Antwort auf die Nutzerbedienung auf dem Kameraeinstellungsbildschirm direkt an (S52A).
  • Die Maskierkamera legt das Ausführen (AN) oder Nichtausführen (AUS) des Maskierens gemäß der Anweisung des Client-PCs 10 des Schrittes S52A fest (S54A) und gibt die Antwort, die angibt, dass das Einstellen abgeschlossen ist, direkt an den Client-PC 10 zurück.
  • Entsprechend kann der Client-PC 10 beispielsweise in einem Fall, in dem der Client-PC 10 und die Maskierkamera in der gleichen Filiale oder dem gleichen Laden präsent sind, das Einstellen des Maskierens direkt auf der Maskierkamera reibungslos und einfach durchführen, ohne den Recorder zu verwenden.
  • Im Folgenden wird ein Betriebsverfahren, das die Anzeige des aufgenommenen Videos, nachdem das Maskieren des Client-PCs 10 gemäß der vorliegenden beispielhaften Ausführungsform eingestellt ist, mit Verweis auf 24 bis 26 beschrieben. 24 ist ein Sequenzdiagramm zum detaillierten Beschreiben eines ersten Beispiels des Betriebsverfahrens, das das Erlangen und Anzeigen des aufgenommenen Videos in dem Client-PC gemäß der vierten beispielhaften Ausführungsform betrifft, nachdem der Betrieb begonnen hat. 25 ist ein Sequenzdiagramm zum detaillierten Beschreiben eines zweiten Beispiels des Betriebsverfahrens, das das Erlangen und Anzeigen des aufgenommenen Videos in dem Client-PC gemäß der vierten beispielhaften Ausführungsform betrifft, nachdem der Betrieb begonnen hat. 26 ist ein Flussdiagramm zum detaillierten Beschreiben eines Beispiels des Betriebsverfahrens der Anzeige des Client-PCs in Schritt S69 der 24 und 25.
  • In der Beschreibung der 25 werden in einem Fall, in dem die Verarbeitung, die in 25 gezeigt ist und die Verarbeitung, die in 24 gezeigt ist, gleich sind, die gleichen Schrittnummern zugeordnet, und die Beschreibung davon wird vereinfacht und weggelassen. Verschiedene Inhalte werden beschrieben.
  • In 24 wird, wenn eine Bedienung zum Starten des Betriebs des Client-PCs 10 durch die Nutzerbedienung durchgeführt wird (S61), der Client-PC 10 den Recorder anweisen, die Verteilung (das heißt, Aufzeichnen) des Videos zu beginnen (S62).
  • Der Recorder beginnt die Verteilung des aufgenommenen Videos oder des bearbeiteten Videos oder weist die Maskierkamera und die normale Kamera an, die Verteilung des aufgenommenen Videos oder des bearbeiteten Videos gemäß der Anweisung des Client-PCs 10 des Schrittes S62 zu beginnen (S63). Die Maskierkamera beginnt das Aufnehmen gemäß der Anweisung des Recorders des Schrittes S63 (S64). Vergleichbar beginnt die normale Kamera die Aufnahme gemäß der Anweisung des Recorders des Schrittes S63 (S65).
  • Da das Maskieren nicht durchgeführt werden kann, fährt die normale Kamera fort, das durch das Aufnehmen erlangte aufgenommene Video zu dem Recorder zu verteilen, nachdem das Aufnehmen begonnen hat (S66). Falls das aufgenommene Video (Echtzeitvideo), das von der normalen Kamera in Schritt S66 verteilt wurde, empfangen wird, speichert der Recorder das aufgezeichnete Video in dem Speicher R14 (S68).
  • In einem Fall, in dem das Ausführen (AN) des Maskierens in Fig. 23A und 23B, nachdem das Aufnehmen begonnen hat, festgelegt wird, fährt die Maskierkamera fort, das bearbeitete Video zu verteilen, das durch Durchführen des Maskierens (vergleiche beispielsweise 11 und 12) auf dem aufgenommenen Video, das durch Beginnen des Aufnehmens des Schrittes S64 erlangt wird, erlangt wird, zu dem Recorder zu verteilen (S67). In der Zwischenzeit fährt die Maskierkamera in einem Fall, in dem das Nichtausführen (AUS) des Maskierens in Fig. 23A und 23B, nachdem das Aufnehmen begonnen hat, eingestellt wird, fort, das aufgenommene Video, das durch Beginnen des Aufnehmens des Schrittes S64 erlangt wird, zu dem Recorder zu verteilen (S67). Falls das aufgenommene Video (Echtzeitvideo) oder das bearbeitete Video, das von der Maskierkamera in Schritt S67 verteilt wird, empfangen wird, speichert der Recorder das aufgezeichnete Video in dem Speicher R14 (S68).
  • Beispielsweise in einem Fall, in dem eine Nutzerbedienung zum Verteilen des aufgezeichneten Videos, das in dem Recorder in der Vergangenheit gespeichert wurde, in Schritt S62 durchgeführt wird, ist die Einstellungsinformation des Aufnahmedatums und der -zeit (mit anderen Worten Aufzeichnungsdatum und -zeit), das von dem Nutzer gewünscht wird, in der Anweisung zum Beginnen der Verteilung des Videos in Antwort auf die Nutzerbedienung enthalten. In diesem Fall liest der Recorder das aufgezeichnete Video, das zu dem Aufnahmedatum und -zeit aufgenommen wurde, die von dem Client-PC 10 übertragen werden, aus dem Speicher R14 und verteilt das gelesene Video an den Client-PC 10 (S68).
  • Beispielsweise in einem Fall, in dem die Nutzerbedienung zum Verteilen des aufgenommenen Videos, das durch die Kamera aufgenommen wurde, in Schritt S62 durchgeführt wird, wird das aufgenommene Video (Echtzeitvideo), das aktuell durch die Kamera aufgenommen wird, gemäß der Anweisung zum Beginnen der Verteilung des Videos verteilt. In diesem Fall verteilt der Recorder das aufgenommene Video oder das bearbeitete Video, das von der Maskierkamera in Schritt S67 verteilt wurde, und das aufgenommene Video, das von der normalen Kamera in Schritt S66 verteilt wurde, an den Client-PC 10 und fährt fort, das Video zu verteilen (S68).
  • Der Client-PC 10 zeigt das Video wie beispielsweise das bearbeitete Video, das aufgezeichnete Video oder das aufgenommene Video (Echtzeitvideo), das von dem Recorder in Schritt S68 verteilt wurde, gemäß der Einstellung des Ausführens (AN) oder Nichtausführens (AUS) des Maskierens, das für jede Art von Kamera, die mit dem Recorder gepaart (zugeordnet) ist, auf dem Monitor DP an (S69). Die Details des Schrittes S69 werden unten mit Verweis auf 26 beschrieben.
  • Da das Maskieren nicht durchgeführt werden kann, beginng die normale Kamera in 25 das Aufnehmen, und fährt dann fort, das aufgenommene Video, das durch das Aufnehmen erlangt wurde, an den Recorder und Client-PC 10 zu verteilen (S66A). Wenn das aufgenommene Video (Echtzeitvideo), das von der normalen Kamera verteilt wird, in dem Schritt S66A empfangen wird, speichert der Recorder das aufgezeichnete Video in dem Speicher R14 (S68A).
  • In einem Fall, in dem das Ausführen (AN) des Maskierens in 23A oder 23B eingestellt wird, nachdem die Aufnahme begonnen hat, fährt die Maskierkamera fort, das bearbeitete Video, das durch Durchführen des Maskierens (beispielsweise vergleiche 11 und 12) auf dem aufgenommenen Video, das durch Beginnen der Aufnahme des Schrittes S64 erlangt wird, erlangt wird, zu dem Recorder und dem Client-PC 10 zu verteilen (S67A). Währenddessen fährt in einem Fall, in dem das Nichtausführen (AUS) des Maskierens in Fig. 23A oder 23B, nachdem das Aufnehmen begonnen hat, eingestellt wird, die Maskierkamera fort, das aufgenommene Video, das durch Beginnen des Aufnehmens des Schrittes S64 erlangt wird, an den Recorder und Client-PC 10 zu verteilen (S67A). Wenn das aufgenommene Video (Echtzeitvideo) oder das bearbeitete Video, das von der Maskierkamera verteilt wird, in Schritt S67A empfangen wird, speichert der Recorder das aufgezeichnete Video in dem Speicher R14 (S68A).
  • Beispielsweise in einem Fall, in dem eine Nutzerbedienung zum Verteilen des aufgezeichneten Videos, das in dem Recorder in der Vergangenheit gespeichert wurde, in Schritt S62 durchgeführt wird, werden die Einstellungsinformation des Aufnahmedatums und der -zeit (mit anderen Worten Aufzeichnungsdatum und -zeit), das von dem Nutzer gewünscht wird, in der Anweisung zum Starten der Verteilung des Videos in Antwort auf die Nutzerbedienung eingebettet. In diesem Fall liest der Recorder das aufgezeichnete Video, das zu dem Aufnahmedatum und der Aufnahmezeit, die von dem Client-PC 10 übertragen wird, aus dem Speicher R14 und verteilt das gelesene Video an den Client-PC 10 (S68A).
  • Der Client-PC 10 zeigt das Video, wie beispielsweise das bearbeitete Video, das aufgezeichnete Video oder das aufgenommene Video (Echtzeitvideo), das von dem Recorder in Schritt S68 verteilt wird, gemäß der Einstellung des Ausführens (AN) oder des Nichtausführens (AUS) des Maskierens, das für jede Art von Kamera, die mit dem Recorder gepaart (zugeordnet) ist, auf dem Monitor DP an (S69). Die Details des Schrittes S69 werden unten mit Verweis auf 26 beschrieben.
  • In 26 empfängt der Client-PC 10 das von einem beliebigen des Recorders, der Maskierkamera und der normalen Kamera in Schritt S68 oder Schritt S68A verteilten Videos und erlangt das empfangene Video (S71).
  • Der Client-PC 10 liest die in dem Speicher 15 oder dem Speicher 16 gespeicherte Kameraeinstellungsinformation (vergleiche 22 und 20) und verweist auf die Einstellung des Ausführens oder Nichtausführens des Maskierens auf der Kamera als Verteilungsquelle des Videos oder der mit dem Recorder gepaarten Kamera als Verteilungsquelle des in Schritt S71 erlangten Videos (S72).
  • In einem Fall, in dem bestimmt wird, dass das Nichtausführen (AUS) des Maskierens in der Kameraeinstellungsinformation festgelegt ist, zeigt der Client-PC 10 das in Schritt S71 erlangte Video (insbesondere das aufgenommene Video oder das aufgezeichnete Video), ohne das Video zu verändern, auf dem Monitor DP an (S73).
  • In einem Fall, in dem bestimmt wird, dass das Ausführen (AN) des Maskierens in der zugehörigen Kamera in der Kameraeinstellungsinformation eingestellt ist, zeigt der Client-PC 10 das in Schritt S71 erlangte Video (insbesondere das bearbeitete Video, das durch Durchführen des Maskierens durch die Maskierkamera erzeugt wird) ohne Verändern dieses Videos auf dem Monitor DP an (S73).
  • In einem Fall, in dem bestimmt wird, dass das Ausführen des Maskierens in dem Client-PC 10 für die zugehörige Kamera in der Kameraeinstellungsinformation festgelegt ist, führt der Client-PC 10 das Maskieren (11 und 12) auf dem in Schritt S71 erlangten Video (insbesondere dem aufgenommenen Video oder dem bearbeiteten Video) und zeigt das bearbeitete Video, das durch das Maskieren erlangt wird, auf dem Monitor DP an (S74). Hier kann der Client-PC 10 in einem Fall, in dem der Client-PC 10 das bearbeitete Video, das von dem Recorder in Schritt S71 verteilt wird, empfängt und in einem Fall, in dem die Information angibt, dass das Maskieren durch die Maskierkamera durchgeführt wird, in den Daten des bearbeiteten Videos enthalten ist, den Inhalt der aktuellen Kameraeinstellungsinformation nicht hinzufügen, das Maskieren auf dem empfangenen bearbeiteten Video nicht durchführen und kann das Video vorzugsweise auf dem Monitor DP, ohne dieses Video zu verändern, anzeigen. Entsprechend kann der Client-PC 10 eine zusätzliche Ausführung des Maskierens auf dem bearbeiteten Video, auf dem das Maskieren bereits in einer anderen Vorrichtung (das heißt, der Maskierkamera) durchgeführt wurde, unterlassen. Somit ist es möglich, die Verarbeitungslast des Client-PCs 10 zu verringern, und es ist möglich, eine Verschlechterung der Sichtbarkeit des bearbeiteten Videos zu unterdrücken.
  • Wie beschrieben umfasst das Überwachungskamerasystem 100 gemäß der vierten beispielhaften Ausführungsform wenigstens eine Kamera (beispielsweise omnidirektionale Kamera CAM11, feste Kamera CAM14, ...), welche den Aufnahmebereich aufnimmt, den Recorder (beispielsweise den Recorder REC1), der dieser Kamera zugeordnet ist und das aufgenommene Video des Aufnahmebereiches als das aufgezeichnete Video speichert, um dieses Video mit dem Aufnahmedatum und der Aufnahmezeit zu assoziieren, und der Client-PC 10, der die Einstellungsinformation erhält, die das Ausführen oder Nichtausführen des Maskierens zum Ändern wenigstens eines Teils des bewegten Objektes (beispielsweise der Person), die in dem aufgenommenen Video des Aufnahmebereiches erscheint, zu dem Maskenbild für jede dem Recorder zugeordnete Kamera angibt. Beispielsweise in einem Fall, in dem das Ausführen des Maskierens gemäß der Bestimmung des Aufnahmedatums und der Aufnahmezeit durch die Nutzerbedienung festgelegt ist, zeigt der Client-PC 10 das bearbeitete, aufgezeichnete Video, das durch Durchführen des Maskierens auf dem aufgezeichneten Video, das zu der bestimmten Aufnahmedatum und -zeit aufgenommen wurde, erlangt wird, auf dem Monitor DP an. Währenddessen zeigt der Client-PC 10 in einem Fall, in dem das Nichtausführen des Maskierens eingestellt ist, das aufgezeichnete Video, das zu dem bestimmten Aufnahmedatum und der Aufnahmezeit aufgenommen wurde, ohne Verändern dieses Videos auf dem Monitor DP an.
  • Ähnlich zu der ersten beispielhaften Ausführungsform kann der Client-PC 10 gemäß der vierten beispielhaften Ausführungsform das Maskieren zum Ersetzen wenigstens eines Teils oder des Gesamten der Person, die in dem aufgenommenen Video erscheint oder sich bewegt, mit dem Maskenbild durchführen. Entsprechend kann der Client-PC 10, wenn das aufgezeichnete Video des Ereignisses, das durch die Kamera in der Vergangenheit aufgezeichnet wurde und bereits in dem Recorder gespeichert ist, betrachtet wird, einfach auswählen, ob das Maskieren in dem Client-PC 10 durchzuführen ist oder nicht, indem ein Datenelement des aufgezeichneten Videos verwendet wird, und somit ist es möglich, die Überwachungseffizienz und Marketinganalysegenauigkeit zu verbessern.
  • In dem Überwachungskamerasystem 100 gemäß der vierten beispielhaften Ausführungsform umfasst wenigstens eine Kamera die normale Kamera (beispielsweise omnidirektionale Kamera CAM11), die in der Lage ist, das Maskieren durchzuführen. In einem Fall, in dem das Ausführen (AN) des Maskierens auf dem aufgenommenen Video, das durch die normale Kamera aufgenommen wurde, eingestellt ist, zeigt der Client-PC 10 das bearbeitete Video, das durch Durchführen des Maskierens auf dem aufgenommenen Video erlangt wird, auf dem Monitor DP an. In der Zwischenzeit zeigt der Client-PC 10 in einem Fall, in dem das Nichtausführen (AUS) des Maskierens auf dem aufgenommenen Video, das durch die normale Kamera aufgenommen wurde, eingestellt ist, das aufgenommene Video ohne ein Verändern dieses Videos auf dem Monitor DP an.
  • Entsprechend kann der Client-PC 10 in einem Fall, in dem das aktuell aufgenommene Video (Echtzeitvideo), das durch die normale Kamera aufgenommen wird, empfangen wird, das aufgenommene Video oder das bearbeitete Video, das zu dem Geschmack des Nutzers passt, gemäß der Einstellung des Ausführens oder Nichtausführens des Maskierens auf dem aufgenommenen Video in der normalen Kamera auf dem Monitor DP anzeigen, und somit ist es möglich, zu einer Verbesserung der Genauigkeit der Marketinganalyse oder der Überwachungsdienstleistungen des Nutzers beizutragen.
  • In dem Überwachungskamerasystem 100 gemäß der vierten beispielhaften Ausführungsform umfasst wenigstens eine Kamera die Maskierkamera (beispielsweise die feste Kamera CAM14), die geeignet ist, das Maskieren durchzuführen. In einem Fall, in dem das Ausführen des Maskierens in der Maskierkamera für das aufgenommene Video, das durch die Maskierkamera aufgenommen wurde, festgelegt ist, zeigt der Client-PC 10 das bearbeitete Video, das durch Durchführen des Maskierens auf dem aufgenommenen Video durch die Maskierkamera erlangt wird, ohne Verändern dieses Videos auf dem Monitor DP an. In der Zwischenzeit führt der Client-PC 10 in einem Fall, in dem das Ausführen des Maskierens in dem Client-PC 10 für das aufgenommene Video, das durch die Maskierkamera aufgenommen wird, eingestellt ist, das Maskieren auf dem aufgenommenen Video durch und zeigt das bearbeitete Video, das als das Maskierungsergebnis erlangt wird, auf dem Monitor DP an.
  • Entsprechend empfängt der Client-PC 10 in einem Fall, in dem das Maskieren durch das Einstellen des Ausführens des Maskierens für die Maskierkamera, die bereits die Maskierfunktion aufweist, durchgeführt wird, das bearbeitete Video, das durch die Maskierkamera erzeugt wurde, und erlangt wird, nachdem das Maskieren durchgeführt wird, und zeigt dieses Video ohne Veränderung an, und somit ist es möglich, das Ausführen des Maskierens in dem Client-PC 10 zu unterlassen. Es ist somit möglich, die Verarbeitungslast zu reduzieren und die Last zu verlagern. Beispielsweise in einem Fall, in dem das Maskieren durch die Einstellung des Ausführens des Maskierens in dem Client-PC 10 durchgeführt wird, kann der Client-PC 10 das bearbeitete Video, das durch die gegenüber dem Maskieren in der Maskierkamera bessere Maskierfunktion (beispielsweise in einem Fall, in dem das Maskieren in einem Bereich mit Ausnahme des Nichtzielmaskierungsbereiches durchgeführt wird, das in der ersten beispielhaften Ausführungsform beschrieben ist und basierend auf der Nutzerbedienung durchgeführt wird), erlangt wird und kann das für die Bedürfnisse des Nutzers geeignete Video erkennen.
  • In einem Fall, in dem das Nichtausführen des Maskierens für das aktuell aufgenommene Video (Echtzeitvideo), das durch die Maskierkamera aufgenommen wird, eingestellt ist, zeigt der Client-PC 10 das aufgenommene Video auf dem Monitor DP ohne Verändern dieses Videos an. Entsprechend ist es beispielsweise in einem Fall, in dem es notwendig ist, das aktuelle Echtzeitbild ohne Verändern dieses Videos aufgrund der Bedingung oder Einschränkung des Ereignisses zu betrachten, das aktuelle Echtzeitvideo zu erkennen, und es ist möglich, das für die Bedürfnisse des Nutzers angemessene Video zu erkennen.
  • Obwohl verschiedene beispielhafte Ausführungsformen mit Verweis auf die Zeichnungen beschrieben wurden, ist die vorliegende Offenbarung nicht auf die relevanten Beispiele beschränkt. Es ist zu würdigen, dass Fachleute auf dem Gebiet verschiedene andere Beispiele oder veränderte Beispiele ohne von dem in den Ansprüchen beschriebenen Umfang abzuweichen ableiten, und es wird verstanden, dass Kombinationen der vorgenannten beispielhaften Ausführungsformen zu dem technischen Gehalt der vorliegenden Offenbarung gehören.
  • Die vorliegende Offenbarung ist als ein Überwachungssystem und ein Videoanzeigeverfahren sinnvoll, das geeignet ist, eine Überwachungseffizienz oder Marketinganalysegenauigkeit durch angemessenes Durchführen des Maskierens auf einem aufgenommenen Video, das durch eine Kamera aufgenommen wurde, die keine Maskierfunktion aufweist, zu verbessern, ohne der Kamera, die die Maskierfunktion nicht aufweist, die Maskierfunktion separat hinzuzufügen.

Claims (4)

  1. Überwachungssystem, das aufweist: eine Vielzahl von Kameras, die Aufnahmebereiche aufnehmen und geeignet sind, ein Maskieren zum Ändern wenigstens eines Teils eines bewegten Objektes, das in einem aufgenommenen Video des Aufnahmebereiches erscheint, zu einem Maskenbild durchzuführen; und eine Informationsverarbeitungsvorrichtung, die eine Einstellungsinformation bewahrt, die ein Ausführen oder Nichtausführen des Maskierens der Kamera für jede Kamera angibt, wobei die Informationsverarbeitungsvorrichtung in einem Fall, in dem das Ausführen des Maskierens in der einen Kamera festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens in einer Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, erlangt wird, auf einem Monitor anzeigt und in einem Fall, in dem das Nichtausführen des Maskierens in einer anderen Kamera, die von der einen Kamera der Vielzahl von Kameras verschieden ist, festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens auf dem von der anderen Kamera aufgenommenen Video in der Informationsverarbeitungsvorrichtung erlangt wird, auf dem Monitor anzeigt oder das von der anderen Kamera aufgenommene Video ohne das aufgenommene Video zu ändern auf dem Monitor anzeigt.
  2. Überwachungssystem, das aufweist: eine Vielzahl von Kameras, die Aufnahmebereiche aufnehmen und nicht geeignet sind, ein Maskieren zum Ändern wenigstens eines Teils eines bewegten Objektes, das in dem aufgenommenen Video des Aufnahmebereiches erscheint, zu einem Maskenbild durchzuführen; und eine Informationsverarbeitungsvorrichtung, die eine Einstellungsinformation bewahrt, die ein Ausführen oder Nichtausführen des Maskierens für jede Kamera angibt, wobei die Informationsverarbeitungsvorrichtung in einem Fall, in dem das Ausführen des Maskierens für eine Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens auf dem aufgenommenen Video in der Informationsverarbeitungsvorrichtung erlangt wird, auf einem Monitor anzeigt und in einem Fall, in dem das Nichtausführen des Maskierens für eine andere Kamera festgelegt ist, die von der einen Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, verschieden ist, das aufgenommene Video ohne das aufgenommene Video durch Durchführen des Maskierens auf dem aufgenommenen Video zu ändern auf dem Monitor anzeigt, wobei das Überwachungssystem weiter aufweist: eine Vielzahl zweiter Kameras, die Aufnahmebereiche aufnehmen und geeignet sind, ein Maskieren zum Ändern wenigstens eines Teils eines bewegten Objektes, das in einem aufgenommenen Video des Aufnahmebereiches erscheint, zu einem Maskenbild durchzuführen, wobei die Informationsverarbeitungsvorrichtung in einem Fall, in dem das Ausführen des Maskierens in einer Kamera der Vielzahl zweiter Kameras, die die aufgenommenen Videos aufnehmen, festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens in der einen Kamera erlangt wird, auf dem Monitor anzeigt, und in einem Fall in dem das Nichtausführen des Maskierens in einer anderen Kamera, die von der einen Kamera der Vielzahl zweiter Kameras verschieden ist, festgelegt ist, ein bearbeitetes Video, das durch Durchführen des Maskierens auf dem von der anderen Kamera aufgenommenen Video in der Informationsverarbeitungsvorrichtung erlangt wird, auf dem Monitor anzeigt oder das von der anderen Kamera aufgenommene Video ohne Verändern des aufgenommenen Videos auf dem Monitor anzeigt.
  3. Videoanzeigeverfahren zum Anzeigen aufgenommener Videos von Aufnahmebereichen, die durch eine Vielzahl von Kameras, die die Aufnahmebereiche aufnehmen und in der Lage sind, ein Maskieren zum Verändern wenigstens eines Teils eines bewegten Objektes, das in dem aufgenommenen Video des Aufnahmebereiches erscheint, zu einem Maskenbild durchzuführen, aufgenommen werden, auf einem Monitor durch Verwenden einer Informationsverarbeitungsvorrichtung, wobei das Verfahren aufweist: Verursachen, dass die Informationsverarbeitungsvorrichtung eine Einstellungsinformation bewahrt, die das Ausführen oder Nichtausführen des Maskierens der Kamera für jede Kamera angibt; Verursachen, dass die Informationsverarbeitungsvorrichtung ein bearbeitetes Video, das durch Durchführen des Maskierens in einer Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, erlangt wird, in einem Fall auf dem Monitor anzeigt, in dem das Ausführen des Maskierens in der einen Kamera festgelegt ist; und Verursachen, dass die Informationsverarbeitungsvorrichtung ein bearbeitetes Video, das durch Durchführen des Maskierens auf dem von einer anderen Kamera, die von der einen Kamera der Vielzahl von Kameras verschieden ist, aufgenommenen Video in der Informationsverarbeitungsvorrichtung erlangt wird, auf dem Monitor anzeigt oder das aufgenommene Video von der anderen Kamera ohne Ändern des aufgenommenen Videos in einem Fall anzeigt, in dem das Nichtausführen des Maskierens in der anderen Kamera festgelegt ist.
  4. Computerprogramm, das eine Informationsverarbeitungsvorrichtung, die ein Computer ist, der aufgenommene Videos von Aufnahmebereichen, die durch eine Vielzahl von Kameras aufgenommen werden, die Aufnahmebereiche aufnehmen und geeignet sind, ein Maskieren zum Ändern wenigstens eines Teils eines bewegten Objektes, das in dem aufgenommenen Video des Aufnahmebereiches erscheint, zu einem Maskenbild durchzuführen, auf einem Monitor anzeigt, veranlasst durchzuführen Verursachen, dass die Informationsverarbeitungsvorrichtung Einstellungsinformation bewahrt, die das Ausführen oder Nichtausführen des Maskierens der Kamera für jede Kamera angibt; Verursachen, dass die Informationsverarbeitungsvorrichtung ein bearbeitetes Video, das durch Durchführen des Maskierens in einer Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, erlangt wird, in einem Fall auf dem Monitor anzeigt, in dem das Ausführen des Maskierens in der einen Kamera festgelegt ist; und Verursachen, dass die Informationsverarbeitungsvorrichtung ein bearbeitetes Video, das durch Durchführen des Maskierens auf dem von einer anderen Kamera, die von der einen Kamera der Vielzahl von Kameras, die die aufgenommenen Videos aufnehmen, verschieden ist, aufgenommenen Video in der Informationsverarbeitungsvorrichtung erlangt wird, auf dem Monitor anzeigt oder das aufgenommene Video von der anderen Kamera ohne Ändern des aufgenommenen Videos in einem Fall anzeigt, in dem das Nichtausführen des Maskierens in der anderen Kamera festgelegt ist.
DE102017109106.8A 2016-06-20 2017-04-27 Überwachungssystem und Videoanzeigeverfahren Active DE102017109106B4 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2016-122093 2016-06-20
JP2016-122095 2016-06-20
JP2016122095A JP6098964B1 (ja) 2016-06-20 2016-06-20 モニタリングシステム、映像表示方法及びコンピュータプログラム
JP2016-122092 2016-06-20
JP2016-122094 2016-06-20
JP2016122093A JP6099025B1 (ja) 2016-06-20 2016-06-20 モニタリングシステム、マスク処理設定方法及びコンピュータプログラム
JP2016122094A JP6098963B1 (ja) 2016-06-20 2016-06-20 モニタリングシステム、映像表示方法及びコンピュータプログラム
JP2016122092A JP6112436B1 (ja) 2016-06-20 2016-06-20 モニタリングシステム、映像表示方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
DE102017109106A1 DE102017109106A1 (de) 2017-12-21
DE102017109106B4 true DE102017109106B4 (de) 2018-08-23

Family

ID=60481136

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017109106.8A Active DE102017109106B4 (de) 2016-06-20 2017-04-27 Überwachungssystem und Videoanzeigeverfahren

Country Status (1)

Country Link
DE (1) DE102017109106B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050270372A1 (en) 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
DE102008007199A1 (de) 2008-02-01 2009-08-06 Robert Bosch Gmbh Maskierungsmodul für ein Videoüberwachungssystem, Verfahren zur Maskierung von selektierten Objekten sowie Computerprogramm
US20090244327A1 (en) 2008-03-26 2009-10-01 Masaaki Toguchi Camera system
US20150222861A1 (en) 2014-02-05 2015-08-06 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
DE102015209138A1 (de) 2014-05-23 2015-11-26 Panasonic Intellectual Property Management Co., Ltd. Überwachungsvorrichtung, Überwachungssystem und Überwachungsverfahren

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5834193A (ja) 1981-07-14 1983-02-28 Seiko Instr & Electronics Ltd 時計用表示板

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050270372A1 (en) 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
DE102008007199A1 (de) 2008-02-01 2009-08-06 Robert Bosch Gmbh Maskierungsmodul für ein Videoüberwachungssystem, Verfahren zur Maskierung von selektierten Objekten sowie Computerprogramm
US20090244327A1 (en) 2008-03-26 2009-10-01 Masaaki Toguchi Camera system
US20150222861A1 (en) 2014-02-05 2015-08-06 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
DE102015209138A1 (de) 2014-05-23 2015-11-26 Panasonic Intellectual Property Management Co., Ltd. Überwachungsvorrichtung, Überwachungssystem und Überwachungsverfahren

Also Published As

Publication number Publication date
DE102017109106A1 (de) 2017-12-21

Similar Documents

Publication Publication Date Title
DE60131840T2 (de) System zum automatischen testen von überwachungskameras
DE102015209138A1 (de) Überwachungsvorrichtung, Überwachungssystem und Überwachungsverfahren
DE102017111203B4 (de) Videoverarbeitungsvorrichtung, videoverarbeitungsverfahren und programm
JP7036493B2 (ja) 監視方法及び装置
DE69930986T2 (de) Hochauflösende Kamera
DE60116949T2 (de) Gesichtserfassungsverfahren
DE202018100907U1 (de) Augennahe Anzeige mit erweiterter effektiver Eyebox durch Augenverfolgung
DE112017004647T5 (de) Informationsverarbeitungsvorrichtung und Verfahren und Programm
DE112019001879T5 (de) Videoverarbeitungsvorrichtung, videoverarbeitungssystem undvideoverarbeitungsverfahren
DE112016002373T5 (de) Tracking-support-vorrichtung, tracking-support-system und tracking-support-verfahren
DE19825302B4 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
DE69738287T2 (de) Verfahren zum Anzeigen eines sich bewegenden Objekts, dessen Bahn zu identifizieren ist, Anzeigesystem unter Verwendung dieses Verfahrens und Programmaufzeichnungsmedium dafür
DE112015005301T5 (de) Bildaufnahmevorrichtung, Aufzeichnungsvorrichtung und Bewegtbildausgabesteuervorrichtung
DE112017003800T5 (de) Überwachungsunterstützungsvorrichtung, überwachungsunterstützungssystem und überwachungsunterstützungsverfahren
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera
DE102011015730A1 (de) Phantombilddatenbank (3D)
WO2017153355A1 (de) Verfahren und vorrichtung zum durchführen einer blickabbildung
DE102019212978A1 (de) Überwachungsvorrichtung zur Personenwiedererkennung und Verfahren
DE102015102276A1 (de) Anzeigesteuerungsvorrichtung und anzeigeverfahren
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
DE60222380T2 (de) System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird
DE112018007360T5 (de) Bildverarbeitungsvorrichtung, Bildanzeigesystem und Bildverarbeitungsverfahren
DE102018106108A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102017109106B4 (de) Überwachungssystem und Videoanzeigeverfahren
DE102018100802A1 (de) Informationsanzeigesystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102017012201

Country of ref document: DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: I-PRO CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT CO., LTD., OSAKA, JP

Owner name: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT CO., LTD., OSAKA, JP

R082 Change of representative

Representative=s name: EISENFUEHR SPEISER PATENTANWAELTE RECHTSANWAEL, DE

R081 Change of applicant/patentee

Owner name: I-PRO CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., TOKYO, JP

Owner name: I-PRO CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA, JP

Owner name: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA, JP

Owner name: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., TOKYO, JP

R082 Change of representative

Representative=s name: EISENFUEHR SPEISER PATENTANWAELTE RECHTSANWAEL, DE

R081 Change of applicant/patentee

Owner name: I-PRO CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA-SHI, JP