DE102007037310A1 - Netzwerkkamera und Steuerungsverfahren hierfür - Google Patents

Netzwerkkamera und Steuerungsverfahren hierfür Download PDF

Info

Publication number
DE102007037310A1
DE102007037310A1 DE102007037310A DE102007037310A DE102007037310A1 DE 102007037310 A1 DE102007037310 A1 DE 102007037310A1 DE 102007037310 A DE102007037310 A DE 102007037310A DE 102007037310 A DE102007037310 A DE 102007037310A DE 102007037310 A1 DE102007037310 A1 DE 102007037310A1
Authority
DE
Germany
Prior art keywords
image
masking
network camera
predetermined zone
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007037310A
Other languages
English (en)
Inventor
Yuji Arima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE102007037310A1 publication Critical patent/DE102007037310A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Die Netzwerkkamera der vorliegenden Erfindung ist mit einer Terminal-Vorrichtung verbunden und umfasst eine Kamera und einen Speicher. Die Kamera nimmt ein Bild auf und ist innerhalb eines vorbestimmten Aufnahmebereiches bewegbar. Der Speicher speichert die vorbestimmten Positionsinformationen, die eine Position des vorbestimmten Objektes kennzeichnet. Es wird verhindert, dass das Bild des vorbestimmten Objektes auf der Terminal-Vorrichtung angezeigt wird. Die Netzwerkkamera hat eine Steuerungsvorrichtung, die kontrolliert, dass die Kamera innerhalb des Aufnahmebereichs bewegt wird, um eine Serie von Bildern von der Kamera zu vorbestimmten Zeitperioden zu erfassen. Die Steuerungsvorrichtung führt, wenn sie das Bild umfassend das vorbestimmte Objekt basierend auf der vorbestimmten Positionsinformation erfasst, eine Maskierungs-Operation in Bezug auf einen vorbestimmten Bildbereich durch, der sowohl das Bild des vorbestimmten Objektes, das zur gegenwärtigen Zeitperiode erfasst wird, und das Bild, das zu einer Zeitperiode vor der gegenwärtigen Zeitperiode das vorbestimmte Objekt erfasst, umfasst.

Description

  • Hintergrund
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Netzwerkkamera und ein Steuerungsverfahren von dieser, und insbesondere, aber nicht ausschließlich, auf eine Kamera und ein Verfahren, das geeignet ist einen Bereich zu maskieren, der nicht von der Kamera aufgenommen werden soll, wenn die Kamera geschwenkt, gekippt oder gezoomt wird.
  • 2. Beschreibung des Standes der Technik
  • Vor kurzem wurden Bild-Verteilungsvorrichtungen weitgehend bekannt gemacht, von denen – wenn auf die Bild-Verteilungsvorrichtungen über Netzwerke von einer großen Anzahl von Endgeräten zugegriffen wird – Bilder verteilt werden. Unter diesen Bild-Verteilungsvorrichtungen wurden Netzwerkkameras, die mit Kameravorrichtungen ausgestattet sind, umfangreich vermarktet. Diese Netzwerkkameras sind wie folgt betriebsfähig: zum Beispiel während ein Webserver mit Webbrowsern von Terminal-Vorrichtungen in Verbindung steht – wie beispielsweise Personalcomputer über IP Netzwerke –, übertragen die Netzwerkkameras aufgenommene Bilder zu den jeweiligen Terminal-Vorrichtungen.
  • Andererseits ist eine gemeinsame Anwendung für Netzwerkkameras, die von Überwachungskameras. Überwachungskameras werden genutzt, um aufgenommene Bilder zu Empfangs-Terminal-Vorrichtungen zu verteilen, damit dann die Empfangs-Terminal-Vorrichtungen diese Bilder anzeigen. Allgemein gesprochen – um Informationen von Interesse durch Überwach-Personen zu gewinnen, zum Beispiel Informationen über eine verdächtige Person – übertragen Netzwerkkameras Bilder, die direkt aufgenommen wurden, zu Empfangs-Terminal-Vorrichtungen, während diese Netzwerkkameras keine speziellen bildverarbeitenden Operationen durchführen. In den Empfangs-Terminal-Vorrichtungen werden die empfangenen Bilder angezeigt, und Überwachungspersonen oder Programme beurteilen durch das visuelle Prüfen dieser Bilder, ob verdächtige Personen erscheinen oder nicht.
  • Jedoch besteht die Möglichkeit, dass – wenn diese von den Empfangs-Terminal-Vorrichtungen empfangenen Bilder direkt angezeigt werden – diese Bilder Probleme mit dem Bereich der Privatsphäre und/oder Sicherheitsprobleme erzeugen können. Zum Beispiel können diese Bilder einer persönlichen privaten Information und/oder anderen geheimen Informationen entsprechen. Unter solchen Umständen wurde eine Überwachungs-Kameravorrichtung vorgeschlagen, die geeignet ist, den vorstehend genannten Sicherheitsaspekt zu schützen (Bezugnahme auf Patentveröffentlichung 1). Die Überwachungs-Kameravorrichtung, die in der Patentveröffentlichung 1 beschrieben wird, ist durch eine Überwachungskamera und eine Steuerungsvorrichtung zum Steuern der Überwachungskamera angeordnet, die um 360 Grad entlang der Schwenkrichtung und um 90 Grad oder in größeren Winkeln entlang einer Kipprichtung drehbar ist. Während Maskierungsdaten für das Maskieren von Bereichen der Privatsphäre, die in Bildern angezeigt werden, in der Überwachungskamera gespeichert sind, wird ein Teil der gewonnenen Bilder in Übereinstimmung mit den gespeicherten Maskierungsdaten maskiert. Da ein Teil der Bilder nur verdeckt ist, können private Aspekte geschützt werden, ohne Überwachungsfunktionen zu verschlechtern. Da die Maskierungsdaten in der Überwachungskamera gehalten werden, können schnelle Verarbeitungsoperationen ausgeführt werden.
  • Es sollte verstanden werden, dass eine andere Überwachungskamera in einer Patentveröffentlichung 2 als eine Überwachungskamera, die eine entsprechende Funktion aufweist, vorgeschlagen wurde. Diese Überwachungskamera löscht einen nicht erwünschten Bereich von einem durch die Überwachungskamera aufgenommenen Bild auch durch einen Überwachungs-Mitarbeiter und überträgt dann das verbleibende Bild zu einem Überwachungszentrum. Obwohl die Patenveröffentlichung 2 einen solchen Fall offenbart, in dem ein Maskierungsbereich eine unveränderte Maskierung verwendet, kann der Maskierungsbereich auf einen anderen Fall übertragen werden, in dem ein Abbildungsbereich entlang oberen, unteren, rechten und linken Richtungen durch Zoomen, Schwenken oder Kippen der Überwachungskamera verändert wird.
    Patentveröffentlichung 1: JP-A-2001-69494
    Patentveröffentlichung 2: JP-A-2003-61076
  • Wie vorstehend beschrieben, übertragen die herkömmlichen Netzwerkkameras die aufgenommenen Bilder direkt, ohne eine Änderung. Infolgedessen besteht ein Risiko, dass die Geheimnisaspekte enthüllt werden könnten. Im Gegensatz dazu maskieren die Überwachungs-Kameras, die in den Patentveröffentlichungen 1 und 2 beschrieben werden, teilweise die Bereiche der Privatsphäre der Bilder, basierend auf den Maskierungsdaten, und folglich kann die Privatsphäre geschützt werden, ohne die Überwachungsfunktionen zu verschlechtern.
  • Jedoch können bei der Überwachungsvorrichtung der Patentveröffentlichung 1 in einem solchen Fall, in dem Schwenkgeschwindigkeiten oder Kippgeschwindigkeiten der Kamera größer oder gleich einer vorbestimmten Geschwindigkeit werden, Berechnungen der Maskierungsbereiche diese Hochgeschwindigkeitsdrehungen der Kamera nicht einholen. Infolgedessen werden Bilder zu früheren Zeitpunkten angezeigt, als die dieser Berechnungen, so dass Maskierungspositionen von einem solchen Bildbereich verschoben werden, dessen Privatsphäre tatsächlich geschützt werden sollte. Unter solchen Umständen ist die Überwachungsvorrichtung in Bezug auf die Bewegungsgeschwindigkeiten der Kamera limitiert. Andererseits schenkt die Überwachungskamera, die in der Patentveröffentlichung 2 offenbart wird, dem vorstehend genannten Problem keinerlei Beachtung und offenbart auch keine Begrenzung der Bewegungsgeschwindigkeit.
  • Wenn Netzwerkkameras verwendet werden, ist es wünschenswert, dass eine Begrenzung der Bewegungsgeschwindigkeiten der Schwenk- und Kippoperationen nicht länger besteht, und dass in ähnlicher Weise auch keine Begrenzung besteht, selbst wenn die Netzwerkkameras während Zoomoperationen von dieser geschwenkt/oder gekippt werden. Dann besteht ein anderes Problem. Das heißt, um die Positionsverschiebung zwischen diesem Maskierungsbereich und dem Bereich, der aufgrund einer Privatsphäre tatsächlich geschützt werden soll, zu reduzieren, wenn ein Korrekturmittel von neuem ausgeführt wird, dann erfordert dieses neue Korrekturmittel notwendigerweise ein hohes Maß an Berechnungen, so dass Verzögerungen erneut erzeugt werden. Wenn ein solches neues Korrekturmittel das Gegenteil von dem ursprünglichen Ziel bildet, kann ein weiteres Problem eintreten.
  • Zusammenfassung
  • Infolgedessen ist es Ziel der vorliegenden Erfindung, eine Netzwerkkamera und ein Steuerungsverfahren von dieser bereitzustellen, das geeignet ist, einen Bereich der Privatsphäre beständig zu maskieren, selbst wenn die Netzwerkkamera geschwenkt, gekippt und außerdem gezoomt wird, und geeignet ist, ohne weiteres einen Maskierungsbereich zu berechnen, während sie versucht, eine obere Begrenzung der Bewegungsgeschwindigkeiten von Schwenk- und Kippoperationen zu verhindern.
  • Um die vorstehenden Probleme zu lösen, ist die Netzwerkkamera der vorliegenden Erfindung so konfiguriert, dass sie mit einer Terminal-Vorrichtung verbunden ist und eine Kamera und einen Speicher umfasst. Die Kamera nimmt ein Bild auf und ist innerhalb eines vorbestimmten Aufnahmebereichs bewegbar, und der Speicher speichert vorbestimmte Positionsinformationen, die eine Position des vorbestimmten Objektes anzeigen. Es wird verhindert, dass das Bild des vorbestimmten Objekts auf der Terminal-Vorrichtung angezeigt wird. Die Netzwerkkamera weist auch eine Steuereinrichtung auf, welche die Kamera so steuert, dass sie sich innerhalb des Aufnahmebereichs bewegt, um durch die Kamera in vorbestimmten Zeitperioden eine Reihe von Bildern zu erfassen. Wenn das Bild einschließlich des vorbestimmten Objektes, basierend auf der vorbestimmten Positionsinformation, erfasst wird, übt die Steuereinrichtung eine Maskierungsprozess-Operation in Bezug auf einen vorbestimmten Bildbereich aus, der sowohl das in der gegenwärtigen Zeitperiode gewonnene Bild des vorbestimmten Objektes als auch das Bild des vorbestimmten Objektes einschließt, welches in einer Zeitperiode vor der gegenwärtigen Zeitperiode gewonnen wurde.
  • Kurze Beschreibung der Figuren
  • 1 ist ein Diagramm zum Zeigen einer Netzwerkstruktur eines Netzwerkkamera-Systems;
  • 2 ist ein Diagramm zum Anzeigen einer Anordnung einer Netzwerkkamera;
  • 3 ist ein erläuterndes Diagramm, zum Erläutern einer Maskierungsprozess-Operation der Netzwerkkamera;
  • 4(a) ist ein erläuterndes Diagramm in dem Fall, in dem ein Bereich einer Privatsphäre in einer Maskierungsoperation exponiert ist, bevor ein Bild gewonnen wird;
  • 4(b) ist ein erläuterndes Diagramm in dem Fall, in dem ein Bereich einer Privatsphäre in einer Maskierungsoperation exponiert ist, nachdem ein Bild gewonnen wurde;
  • 4(c) ist ein erläuterndes Diagramm in dem Fall, in dem ein Bereich einer Privatsphäre in einer Maskierungsoperation nicht exponiert ist, vor und nachdem ein Bild gewonnen wird;
  • 5 ist eine Ablauftabelle zum Darstellen einer Bilder-Verbindungsoperation, ausgeführt in dem Netzwerkkamera-System;
  • 6 ist ein Ablaufdiagramm zum Beschreiben einer Maskierungsprozess-Operation der Netzwerkkamera; und
  • 7 ist ein Ablaufdiagramm zum Erläutern einer Maskierungsoperation einer Netzwerkkamera.
  • Ausführliche Beschreibung
  • Es wird eine Netzwerkkamera gemäß einer ersten Ausführungsform beschrieben, welche die vorliegende Erfindung einschließt. 1 ist ein Diagramm zum Zeigen einer Netzwerkstruktur eines Netzwerkkamera-Systems gemäß der ersten Ausführungsform. 2 ist ein Diagramm zum Anzeigen einer Anordnung einer Netzwerkkamera gemäß der ersten Ausführungsform. 3 ist ein erläuterndes Diagramm, zum Erläutern einer Maskierungsprozess-Operation der Netzwerkkamera gemäß der ersten Ausführungsform. 4(a) ist ein erläuterndes Diagramm in dem Fall, in dem ein Bereich einer Privatsphäre in einer Maskierungsoperation exponiert ist, bevor ein Bild gewonnen wird; 4(b) ist ein erläuterndes Diagramm in dem Fall, in dem ein Bereich einer Privatsphäre in einer Maskierungsoperation exponiert ist, nachdem ein Bild gewonnen wurde; und 4(c) ist ein erläuterndes Diagramm in dem Fall, in dem ein Bereich einer Privatsphäre in einer Maskierungsoperation nicht exponiert ist, vor und nachdem ein Bild gewonnen wird. 5 ist eine Ablauftabelle zum Darstellen einer Bilder-Verbindungsoperation, ausgeführt in dem Netzwerkkamera-System gemäß der ersten Ausführungsform. 6 ist ein Ablaufdiagramm zum Beschreiben einer Maskierungsprozess-Operation der Netzwerkkamera gemäß der ersten Ausführungsform.
  • In 1 kennzeichnet das Bezugszeichen 1 ein IP Netzwerk, so wie das Internet und ein Intranet, welches eine Kommunikationsoperation durch das Einsetzen von TCP/UDP oder IP ausführt. Das Bezugszeichen 2 kennzeichnet eine Netzwerkkamera, durch die ein Bild – das durch eine Bildgewinnungseinheit 12 (die später beschrieben wird) aufgenommen wurde – aufgezeichnet und übertragen wird; und Bezugszeichen 3 kennzeichnet eine Terminal-Vorrichtung, die geeignet ist, über das IP Netzwerk 1 auf die Netzwerkkamera 2 zuzugreifen.
  • Das Bezugszeichen 4 zeigt eine abbildende Linse; das Bezugzeichen 5 kennzeichnet eine Schwenkwinkel-Änderungseinheit, auf der die abbildende Linse 4 bereitgestellt wird und die einen Schwenkwinkel verändert; und das Bezugzeichen 6 kennzeichnet eine Kippwinkel-Änderungseinheit zum Ändern des Kippwinkels.
  • Die abbildende Linse 4 entspricht einer bewegbaren Linse, welche zu fokussierten Punkten bewegbar ist, um eine AF(Automatic Focusing)-Steuerungsoperation auszuführen. Alternativ kann diese abbildende Linse 4 aus einer Linse gebildet sein, die einen festen Brennpunkt aufweist. In diesem Fall wird keine Prozessoperation eines optischen Systems, wie eine AF Steuerungsoperation, ausgeführt, sondern es wird eine digitale Zoom- Prozessoperation ausgeführt, nämlich eine vergrößernde/komprimierende Prozessoperation durch eine Berechnung in Bezug auf die gewonnenen Bilddaten.
  • Eine innere Anordnung der Netzwerkkamera 2 wird in 2 gezeigt. In 2 zeigt das Bezugszeichen 11 eine Netzwerkeinheit, welche eine Kommunikations-Steuerungsoperation zwischen dem IP Netzwerk 1 und der Netzwerkkamera 2 ausführt, basierend auf einem Protokoll so wie HTTP. Alternativ kann das IP Netzwerk 1 mit der Netzwerkeinheit 11 durch die Verwendung von beispielsweise FTP oder SMTP anstatt http verbunden werden. Das Bezugszeichen 11a kennzeichnet einen Kameraserver, der in der Netzwerkeinheit 11 bereitgestellt ist. Der Kameraserver 11a kann Bilddaten in dem Motion-JPEG-Format, dem JPEG-Format oder ähnlichem übertragen, durch das Einsetzen eines Übertragungsprotokolls so wie HTTP etc. In der ersten Ausführungsform ist der Kameraserver 11a ein Webserver zum Ausführen einer Kommunikation, durch das Einsetzen von HTTP, während der Webserver 11a eine Anfrage empfängt, ausgegeben von einem Webbrowser an der Terminal-Vorrichtung 3, um entweder Bilddaten, die durch die Netzwerkkamera 2 aufgenommen wurden, oder Bilddaten, die in der Netzwerkkamera 2 aufgenommen wurden, zu übertragen.
  • Das Bezugszeichen 12 kennzeichnet eine Bilderfassungseinheit, durch welche die abbildende Linse 4 befestigt ist und die von der abbildenden Linse 4 empfangenes Licht photoelektrisch umwandelt. Das Bezugszeichen 13 zeigt eine abbildende Einheit, die durch eine lichtaufnehmende Zelle gebildet ist, so wie eine CCD, welche Licht aufnimmt, das durch die abbildende Linse 4 passiert ist. Das Bezugszeichen 14 kennzeichnet eine Bildsignal-Verarbeitungseinheit. Die Bildsignal-Verarbeitungseinheit 14 verarbeitet R, G, B Signale oder komplementäre Farbsignale, welche den Ausgangssignalen von der abbildenden Einheit 13 entsprechen, um ein Luminazsignal Y, ein Farbdifferenzsignal Cr und ein anderes Farbdifferenzsignal Cb zu erzeugen. Die Bildsignal-Verarbeitungseinheit 14 kann auch eine Konturkorrektur-Prozessoperation, eine γ (Gamma) Korrektur-Prozessoperation und ähnliches ausführen. Auch wenn nicht gezeigt, kann ein elektronischer Verschluss in Bezug auf die abbildende Einheit 13 und eine Abbildungs-Steuerungseinheit zum Ausführen einer Zoom-Prozessoperation und eine Belichtungszeit-Steuerungsoperation in der Bilderfassungseinheit 12 vorgesehen sein.
  • Es sollte beachtet werden, dass – da die erste Ausführungsform die Netzwerkkamera 2 einschließt, welche eine optische Zoomfunktion aufweist – das optische System gesteuert werden kann, um Bilder mit einer hohen Auflösung und einer geringen Auflösung zu gewinnen. Jedoch kann in einem solchen Fall, in dem digitales Zoomen ausgeführt wird – auch wenn nicht in der Figur gezeigt – eine Mehrzahl von Ausgabemitteln zum Umschalten zwischen einer Mehrzahl von möglichen Auflösungen in der Bildsignal-Verarbeitungseinheit 14 vorgesehen sein. Mit dem Einsetzen dieser Auflösungs-Ausgabemittel, kann ein Signal, das von der lichtaufnehmenden Zelle der abbildenden Einheit 13 ausgegeben wird, in einer geringen Auflösung von 320×240 Pixel ausgegeben werden, oder dieses Signal kann verändert werden, um in einer hohen Auflösung von 640×480 Pixel ausgegeben zu werden.
  • Das Bezugszeichen 15 kennzeichnet eine Bildkompressionseinheit. Die Bildkompressionseinheit 15 erfasst ein Ausgabesignal von der Bildsignal-Verarbeitungseinheit 14 zu einem vorbestimmten Zeitpunkt und komprimiert dieses erfasste Signal in das JPEG Format, insbesondere in das Motion-JPEG-Formt und ähnliches. Die Bildkompressionseinheit 15 teilt beispielsweise ein Bild von einem Feld in eine Mehrzahl von Bildblöcken, wo jeder Block aus 8×8 Pixel (nämlich 64 Pixel) gebildet ist, und quantelt jeden der Blöcke, die durch diskrete Kosinustransformation (im Folgenden als „DCT" bezeichnet) verarbeitet wurden, und kodiert dann den gequantelten DCT Block, um den kodierten DCT Block auszugeben.
  • Die Beschreibung fortführend, kennzeichnet das Bezugszeichen 16 in 2 eine Antriebssteuerungseinheit, welche einen Schwenkmotor (nicht dargestellt), einen Kippmotor (nicht dargestellt) und einen Zoom-Motor (nicht dargestellt) antreibt/steuert. Das Bezugszeichen 17 zeigt eine Positions-Erfassungseinheit, wie eine Codiereinrichtung, die zum Beispiel jedes Mal einen Impuls erzeugt, wenn jeder der vorstehend beschriebenen Motoren unter der Steuerung der Antriebs-Steuerungseinheit 16 durch eine Umdrehung rotiert wird.
  • Die Positionserfassungseinheit 17 ist mit Informationen ausgestattet, welche jeweils die Bewegungen des Schwenkmotors, des Kippmotors und des Zoom-Motors beschreiben. Folglich, in dem Fall, in dem eine Schwenkbewegung und eine Kippbewegung ausgeführt werden, da der Schwenkmotor oder der Kippmotor durch 1 Umdrehung rotiert werden, erzeugt die Positionserfassungseinheit 17 1 Impuls, und folglich wird eine optische Achse „C" der Netzwerkkamera 2 in einem Winkel von „Δθ" entlang einer rechten Richtung, einer linken Richtung, einer nach oben gerichteten Richtung oder einer nach unten gerichteten Richtung als Reaktion auf den erzeugten 1 Impuls rotiert. Wenn folglich die Positionserfassungseinheit 17 „n" Impulse erfasst, wird die optische Achse „C" in einem Winkel von „n × Δθ" rotiert. Entsprechend wird in dem Fall der Zoom-Operation, wenn die Positionserfassungseinheit 17 „n" Teile von Impulsen zählt, die Brennweite der abbildenden Linse 4 bewegt. Infolgedessen wird der Brennpunkt der abbildenden Linse 4 eingestellt. Es sollte auch beachtet werden, dass wenn die vorstehend genannte digitale Zoom-Prozessoperation ausgeführt wird, auch wenn diese Motoren nicht vorgesehen sind, eine Gesamt-Pixelanzahl durch die Bilderfassungseinheit 12 in Übereinstimmung mit einer skalierenden Vergrößerungskraft eingestellt wird, welche separat eingegeben wird, um vergrößernde/komprimierende Prozessoperationen auszuführen.
  • Das Bezugszeichen 18, das in 2 gezeigt ist, kennzeichnet eine Speichereinheit, die in der Netzwerkkamera 2 eingebaut ist, welche in dieser ein Steuerungsprogramm und verschiedene Arten von Daten speichert. Das Bezugszeichen 18a zeigt eine Einrichtungseinheit, welche in dieser Informationen eines Maskierungsbereichs speichert, um einen Bereich einer Privatsphäre zu schützen, der von der Terminal-Vorrichtung 3 eingestellt ist. Die Maskierungsbereichs-Information beinhaltet Positionsinformationen eines vorbestimmten Bildobjekts, dessen Anzeige nicht gestattet ist. Der Bereich der Privatsphäre beinhaltet das vorbestimmte Bildobjekt, dessen Anzeige nicht gestattet ist. Der Maskierungsbereich ist aus einer rechteckigen Zone gebildet und ist durch die Aufzeichnung einer Zentralposition eingestellt (nämlich die Position der optischen Achse „C") des Bildschirms, und durch das Bestimmen der Position von 4 Ecken durch einen Bediener, welcher eine GUI (Graphic User Interface) auf der Anzeige der Terminal-Vorrichtung verwendet. Es sollte auch beachtet werden, dass wenn die Positionsinformation von 3 Ecken verfügbar ist – da die Maskierungszone in der rechteckigen Form gebildet ist –, die rechteckige Maskierungszone bestimmt werden kann. Dann ist es nicht notwendig, den Maskierungsbereich in einer rechteckigen Form zu bilden, und in diesem Fall werden Positionen zum Bezeichnen dieser Zone festgelegt.
  • Das Bezugszeichen 18b kennzeichnet eine Speichereinheit der vorausgehenden Information, die in dieser Positionsinformationen eines Maskierungsbereichs und Maskierungsdaten speichert, wenn ein Bild, das in einem vorausgehenden Feld gewonnen wurde (nämlich das gewonnene Bild in dem vorausgehenden Feld), durch die Maskierung verarbeitet wurde. Die Positionsinformation und die Maskierungsdaten, die in dem vorausgehenden Speichereinheit der vorausgehenden Information 18b gespeichert sind, werden jedes Mal aktualisiert, wenn ein Bild gewonnen wird. Auch das Bezugszeichen 18c zeigt eine Speichereinheit zum Speichern von diesen Daten in dieser, welche in Übereinstimmung mit einem Einrichtungszustand das JPEG Format aufweisen, während die Daten, welche die JPEG Funktion aufweisen, in der Bildkompressionseinheit 15 erzeugt wurden. Das Bezugszeichen 18d kennzeichnet eine Puffereinheit, welche zeitweise die Bilddaten in dieser speichert, die in der Bildkompressionseinheit 15 erzeugt wurden, um diese gespeicherten Bilddaten zu verarbeiten.
  • Nun bezugnehmend auf 3 erfolgt eine Beschreibung der Positionen des Maskierungsbereichs, die in der Einrichtungseinheit 18a und der Speichereinheit der vorausgehenden Information 18b gespeichert sind, und außerdem der Positionen eines Maskierungsbereichs, die durch Berechnungen erzielt werden. 3 stellt eine Beziehung zwischen Bildern, dem Bereich einer Privatsphäre und einem Maskierungsbereich konzeptionell dar, wenn die Netzwerkkamera 2 entlang rechten und linken Richtungen schwenkt. Wenn die Netzwerkkamera 2 gekippt ist, da Richtungen der Netzwerkkamera 2 lediglich von den rechten/linken Richtungen in die oberen/unteren Richtungen verändert sind, ist eine konzeptionelle Beziehung zwischen Bildern, den Bereichen von Privatsphären und dem Maskierungsbereich ähnlich zu der Schwenkbewegung. Angenommen nun, dass die optische Achse „C" (nämlich das Zentrum des Bildes) der Netzwerkkamera 2 an einer Position eines Winkels „θ" von einer Bezugsposition eingerichtet ist, und in einem Winkel „Δθ" mit 1 Impuls rotiert wird, und dann – wenn die gegenwärtige Position in diesem Winkel „θ" erreicht ist, wenn der Zähler der Positionserfassungseinheit 17 „nte" Impulse zählt – ein physikalischer Winkel wie folgt gegeben ist: θ = n × Δθ. Auch angenommen, dass eine Impulsanzahl, die 1 Pitch zwischen den jeweiligen Feldern darstellt, als „p" Impulse definiert ist, ist eine Positionsinformation eines Zentrums innerhalb eines „iten" Feldes wie folgt gegeben: n = p × i Impulse.
  • Eine Maskierungsprozess-Operation in Bezug auf das gewonnene Bild wird nun einfach beschrieben. Es wird angenommen, dass eine Positionsinformation auf dem Bildschirm der Netzwerkkamera 2 ausgedrückt wird durch (n, x, y) als Koordinaten. Unter dieser Vorraussetzung kennzeichnet das Bezugszeichen „n" eine Impulsanzahl, welche gezählt wird, bis die optische Achse „C" der Netzwerkkamera 2 in eine vorbestimmte Richtung gerichtet ist; das Symbol „x" kennzeichnet eine Position der Schwenkrichtung in der Einheit eines Pixel, während ein Zentrum (optische Achse „C") innerhalb des Bildschirms zu diesem Zeitpunkt als ein Bezug (0, 0) festgelegt ist; und das Symbol „y" zeigt eine Position der Kipprichtung in der Pixel-Einheit, während das Zentrum innerhalb des Bildschirms entsprechend eingerichtet ist wie der Bezug. Es sollte auch beachtet werden, dass dieser Ausdruck des Koordinatensystems lediglich eingesetzt wird, um das Koordinatensystem kurz zu beschreiben. Folglich ist die vorliegenden Erfindung nicht auf diesen Koordinaten-Ausdruck beschränkt.
  • Maskierungsdaten zum Durchführen der Maskierungsprozess-Operation werden in Übereinstimmung mit der im Folgenden genannten Art und Weise gebildet: Das heißt, während ein Wert von „x" an einem linken Ende (linker Rand) innerhalb dieses Bereichs einen Ausgangswert definiert, erhöht sich dieser Ausgangswert bis zu einem rechten Ende (rechter Rand) (nämlich von „k" bis zu „l" in der folgenden Erklärung), gemäß x = x + 1, um jeweilige Koordinaten zu gewinnen, und auch während ein Wert von „y" an einem unteren Ende (unterer Rand) als ein Ausgangswert definiert ist, erhöht sich dieser Ausgangswert bis zu einem oberen Ende (oberer Rand) (nämlich von „–m" bis zu „m" in der folgenden Erklärung), gemäß y = y + 1, um jeweilige Koordinaten zu gewinnen. Danach werden vorbestimmte Daten, die in Bezug zu den jeweiligen Punkten für die Maskierungsprozess-Operation festgelegt wurden, auf all die Punkte innerhalb des Bereichs angewendet, um die Maskierungsdaten zu bilden. Zum Beispiel, wenn die vorbestimmten Daten binäre Daten sind, dann wird entweder „1" oder „0" auf alle diese Punkte innerhalb dieses Bereichs angewendet.
  • In diesem Fall kennzeichnet das Symbol „LU", das in 3 gezeigt ist, ein oberes linkes Ende des Maskierungsbereichs; das Symbol „LD" zeigt ein unteres linkes Ende von diesem; das Symbol „RU" kennzeichnet ein oberes rechtes Ende von diesem; und das Symbol „RD" zeigt ein unteres rechtes Ende von diesem. Unter Bildern, die in 3 gezeigt sind, werden Bilder, die zu maskieren sind, über zwei Bildschirme angezeigt; sowohl das obere linke Ende LU als auch das untere linke Ende LD des Maskierungsbereichs erscheinen in einem Feld, das freigelegt ist während einer „iten" („p·i"ten Impuls) Bildgewinnungszeitspanne; und sowohl das obere rechte Ende RU als auch das untere rechte Ende RD erscheinen in einem Feld, das während einer (i + 1)ten („p·(i + 1)"ten Impuls) Bildgewinnungszeitspanne exponiert ist. Das obere linke Ende LU, das untere linke Ende LD, das obere rechte Ende RU und das untere rechte Ende RD werden basierend auf relativen Koordinaten eines Bildschirms von beispielsweise 1 Feld dargestellt, in einem solchen Bildschirm, der gebildet ist aus 320×240 Pixel, werden diese Enden (Ränder) basierend auf den relativen Koordinaten ausgedrückt, während die optische Achse „C" als Zentrum (0, 0) definiert ist. Jeder der Punkte innerhalb des Bildschirms wird ausgedrückt durch die Verwendung einer relativen Koordinate, die einen Wert im Bereich von –160 bis 160 in der Pixeleinheit entlang der Schwenkrichtung aufweist, und einer relativen Koordinate, die einen Wert im Bereich von –120 bis 120 in der Pixeleinheit entlang der Kipprichtung aufweist.
  • Der Maskierungsbereich in dem Fall, der in 3 gezeigt ist, ist wie folgt gegeben: Das heißt, das obere linke Ende LU ist in dem „iten” Feld vorhanden (nämlich solch ein Feld, dessen Mittelposition θ = p·i·Δθ darstellt), und die relativen Koordinaten von dieser sind beispielsweise (k, m) und die relativen Koordinaten des unteren linken Endes LD sind (k, –m). In diesem „iten" Feld ist das Maskierungsfeld definiert durch (j, m) bis (j, –m) in Bezug auf „j", welches ausgedrückt wird durch solch eine Ganzzahl von k < j ≤ 160, und ein Bereich wurde maskiert, der durch 4 Punkte von (k, m), (k, –m), (160, m) und (160, –m) umgeben wird.
  • Entsprechend sind das obere rechte Ende RU und das untere rechte Ende RD in dem (i + 1)ten Feld vorhanden (nämlich solch ein Feld, dessen Zentralposition θ = p·(i + 1) darstellt), und während die optische Achse „C (0, 0)" festgelegt ist als ein Zentrum, die relativen Koordinaten des oberen rechten Endes RU als beispielsweise (l, m) ausgedrückt werden; und die relativen Koordinaten des unteren rechten Endes RD als (l, m) ausgedrückt werden. In diesem (i + 1)ten Feld ist das Maskierungsfeld definiert durch (j, m) bis (j, –m) in Bezug auf „j", welches ausgedrückt wird durch solch eine Ganzzahl von 160 ≤ j < 1, und ein Bereich wurde maskiert, der durch 4 Punkte von (l, m), (l, –m), (–160, m), (–160, –m) umgeben wird.
  • Infolgedessen ist eine Positionsinformation über den Bereich, der in 3 maskiert ist, als das obere linke Ende LU (k, m) und das untere linke Ende RD (k, –m) in dem „iten" Feld gegeben; das obere rechte Ende RU (l, m) und das untere rechte Ende (l, m) in dem (i + 1)ten Feld. Wenn die Positionsinformation ausgedrückt wird in dem vorstehend beschriebenen Format (n, x, y) in Kombination mit der Positionsinformation der optischen Achse „C", wird diese Positionsinformation LU (p·i, k, m), LD (p·i, k, –m), RU (p·(i + 1), l, m), RD (p·(i + 1), l, –m).
  • Wie vorstehend beschrieben, sollte auch beachtet werden, dass eine Operation zum Einrichten des Maskierungsbereichs in einem Maskierungseinrichtungsmodus ausgeführt wird, basierend auf einem Bild, das von der Netzwerkkamera 2 übertragen wird, und dieser Maskierungsbereich wird festgelegt durch das Benennen der Positionen der vier Ecken, die auf dem Bildschirm der Terminal-Vorrichtung 3 durch die Eingabeoperation durch die Verwendung des GUI angezeigt werden. Zuerst wird ein Zentrum eines solchen Bereichs, deren Anzeige nicht gestattet ist, durch einen Cursor ausgewählt, und danach wird ein rechteckiger Benennungsbereich ausgedehnt/komprimiert, um den Maskierungsbereich einzustellen. Die Inhalte dieser Einstellungsoperation werden zu der Netzwerkkamera 2 übermittelt und dann wird die Positionsinformation, so wie die vorstehend genanten LU, LD, RU und RD als die relativen Koordinaten, welche die rechteckige Zone darstellen, in der Einrichtungseinheit 18a in Kombination mit der Positionsinformation (p·i Impulse) gespeichert.
  • Außerdem – zurückkehrend zu 2 – wird die Beschreibung der Einrichtung der Netzwerkkamera 2 wie folgt fortgeführt: das heißt, das Bezugszeichen 19 kennzeichnet eine Steuerungseinheit, die geeignet ist, jeweilige Funktionen durch das Lesen eines Programms in einer CPU (Central Processing Unit), welche als Hardware dient zu erzielen. Dann kennzeichnet das Bezugszeichen 20 eine Maskierungssteuerungseinheit. Wenn eine Anforderungsnachricht eines Bildes, die von der Terminal-Vorrichtung 3 ausgegeben wird, zu dem Kameraserver 11a abgegeben wird, welcher in der Netzwerkeinheit 11 bereitgestellt ist, entscheidet die Maskierungssteuerungseinheit 20, ob ein Abschnitt eines Maskierungsbereichs in dem Bild – das durch die Bildgewinnungseinheit 12 gewonnen wird – vorhanden ist oder nicht, um das gewonnene Bild zu maskieren. Das Bezugszeichen 20a kennzeichnet eine Maskierungsabschnitt-Berechnungseinheit, welche eine Positionsinformation des Maskierungsbereichs, basierend auf der Positionsinformation der optischen Achse „C", die durch die Positionserfassungseinheit 17 erfasst wird, berechnet. Das Bezugszeichen 20b zeigt eine Vergrößerungs-/Kompressionseinheit, welche eine Vergrößerung/Kompression des Maskierungsbereichs berechnet, wenn eine Zoom-Operation ausgeführt wird.
  • Es wird ein solcher Fall beschrieben, in dem eine maskierte Position von einer Position eines Bildes verschoben wird, so dass eine Belichtung eines Bereichs einer Privatsphäre erfolgt unter Bezugnahme auf 4(a), 4(b) und 4(c). Zum Beispiel, während die Netzwerkkamera 2 geschwenkt wird, wenn der Zähler der Positionserfassungseinheit 17 „n" Impulse zählt, entscheidet die Maskierungspositions-Berechnungseinheit 20a, dass die Positionsinformation eines Bildzentrums dieses Feldes der Position entspricht (entsprechend θ = n × Δθ als physikalischer Winkel).
  • In diesem Fall – angenommen, dass eine Gesamtzahl von Impulsen für eine Teilung zwischen den jeweiligen Feldern gleich „p" Impulse ist – nimmt ein Zentrum des „iten" Feldes eine Position von n = p × i Impulsen ein und ein Zentrum des (i + 1)ten Feldes nimmt eine Position von n = p × (i + 1) Impulsen ein. Dann – wenn die Netzwerkkamera 2 weiter rotiert wird – wird angenommen, dass das Symbol „q" eine Gesamtanzahl der Impulse ist, welche gezählt werden, um einen Bildschirm, der aus 320×240 Pixel gebildet ist, entlang den Schwenk- und Kipprichtungen zu kreuzen, und ein Symbol „ω" ist eine Gesamtzahl von Pixel, wenn die Netzwerkkamera 1 auf dem Bildschirm als Reaktion auf einen Impuls rotiert (bewegt) wird. In dem Fall, in dem die Netzwerkkamera 2 entlang der Schwenkrichtung gekreuzt wird, q ω ≤ 320, und Bewegungsgeschwindigkeiten der Netzwerkkamera 2 entlang der Schwenk-/Kipprichtungen sind direkt proportional zu „ω".
  • Als nächstes, wenn ein Bereich als der Maskierungsbereich durch vier Punkte von LU (p·i, k, m), LD (p·i, k, –m), RU (p·(i + 1), l, m) und RD (p·(i + 1), l, –m) gekennzeichnet ist, wie in
  • 3 gezeigt, führt die Maskierungssteuerungseinheit 20 nicht die Maskierungsprozess-Operation in Bezug auf Bilder aus, die von dem ersten Feld bis zu dem (i – 1)ten Feld gewonnen wurden, sondern die Bilder werden ohne Maskierungsoperationen übertragen. Im Gegenteil – wie bei einem Bild, dass in dem „iten" Feld gewonnen wird – maskiert die Maskierungssteuerungseinheit 20 einen solchen Bereich ab (–160 ≤ k ≤ 159), der durch vier Punkte von (k, m), (k, –m), (160, m) und (160, –m) umgeben ist. Ebenso – wie bei einem Bild, das in dem (i + 1)ten Feld gewonnen wird – maskiert die Maskierungssteuerungseinheit 20 einen solchen Bereich (–159 ≤ k ≤ 160), der durch vier Punkte von (l, m), (l, –m), (–160, m) und (–160, –m) umgeben ist.
  • Andererseits ist eine Zeitdauer notwendigerweise erforderlich, um eine Position eines Maskierungsbereichs in Bezug zu einem Bild zu berechnen, um Maskierungsdaten zu erzeugen, um eine Maskierungsprozess-Operation des Bildes auszuführen, und auch um Prozessoperationen in Kombination mit anderen Operationen auszuführen, so dass diese Berechnungsoperationen nicht die Schwenk- und Kippbewegung einholen kann, was zu einem Zeitverlust führt. Wenn nun angenommen wird, dass diese Zeitverzögerung basierend auf einer Impulsanzahl berechnet wird, dann werden es „λ" Impulse. Unter Verwendung des Fallbeispiels, das in 3 gezeigt ist, verursachen die vier Punkte des Markierungsbereichs in Bezug auf das „ite" Bild, aufgrund dieser Verzögerung bei dem Bilden einer Maskierung in Bezug auf ein gewonnenes Bild, wirksam die Bildung einer Maskierung in Bezug auf ein Bild, das dem gegenwärtigen Bild durch die „λ" Impulse vorausgeht. Infolgedessen ist die Positionsinformation der Maskierung gegeben als: LU ((p·i – λ), k, m), LD ((p·i – λ), k, –m), RU ((p·i – λ), 160, m) und RD ((p·i – λ), 160, –m). In Bezug auf das Bild des nächsten (i + 1)ten Feldes, ist eine Positionsinformation der Maskierung gegeben als: LU ((p·(i + 1) – λ), –160, m), LD ((p·(i + 1) – λ), –160, –m), RU ((p·(i + 1) – λ), l, m) und RD ((p·(i + 1) – λ), l, –m).
  • Infolgedessen sind Bereiche von Bildern, die tatsächlich durch die vorstehend beschriebene Maskierung maskiert werden, wie folgt gegeben: das heißt, in Bezug auf das Bild des „iten" Feldes, ist der Bereich dieses Bildes gegeben als: LU (p·i, (k – λ·ω), m), LD (p·i, (k – λ·ω), –m), RU (p·i, 160, m) und RD (p·i, 160, –m). Entsprechend, in Bezug auf das Bild des (i + 1)ten Feldes, ist der Bereich dieses Bildes gegeben als: LU (p·(i + 1), –160, m), LD (p·(i + 1), –160, –m), RU (p·(i + 1), (1 – λ·ω), m) und RD (p·(i + 1), (1 – λ·ω), –m).
  • Wie vorstehend beschrieben, wird in einem Fall, in dem in Bezug auf das Bild des „iten" Feldes (nämlich „(p·i)ten" Impuls) die Maskierung verwendet wird, die, nachdem dieses Bild gewonnen wurde, gebildet ist, ein tatsächlicher Maskierungsbereich in Bezug auf das Bild durch „λ·ω" Pixel entlang der Schwenkrichtung von dem Originalbereich verzögert. Wenn das vorstehend beschriebene Bild durch die Verwendung dieser gebildeten Maskierung maskiert wird, wird ein solcher Bereich, der von 4 Punkten von ((1 – λ·ω), m), (1 – λ·ω), –m), (l, m), (l, –m) umgeben ist, exponiert, der einem hinteren Endabschnitt eines Bereichs der Privatsphäre entspricht, welche ursprünglich maskiert werden sollte, auch wenn der ursprüngliche Maskierungsbereich ein anderer Bereich sein sollte, der von 4 Punkten der relativen Koordinaten von (k, m), (k, –m), (l, m) und (l, –m) umgeben ist.
  • Im Gegensatz dazu, in einem solchen Fall, in dem in Bezug auf das Bild des „iten" Feldes eine solche Maskierung verwendet wird, die durch das Gewinnen des Bildes des „(i – 1)ten" Feldes gebildet ist, nämlich die Maskierung gebildet ist, wenn das gewonnene Bild des vorherigen Feldes verwendet wurde, so dass ein Bereich, der von 4 Punkten von ((k – λ·ω), m), ((k – λ·ω), –m), (k, m) und (k, –m) umgeben ist, freigelegt wird. Dieser umgebende Bereich entspricht einem Kopfabschnitt des Bereichs der Privatsphäre. Diese Maskierung vor dem Gewinnen des Bildes wird in der folgenden Beschreibung beschrieben.
  • Als nächstes stellen 4(a) und 4(b) die vorstehend genannten Bedingungen dar, nämlich zeigen einen Zustand eines Vergleichbeispiels 1, wenn das Bild durch das Einsetzen der Maskierung vor der Bildgewinnung maskiert wird, und einen anderen Zustand eines Vergleichbeispiels 2, wenn das Bild durch das Einsetzen der Maskierung nach der Bildgewinnung maskiert wird. In 4(a), wenn die Netzwerkkamera 2 zu dem Bereich der Privatsphäre geschwenkt wird, wird „A" des vorstehend genannten Kopfabschnitts aufgrund der Maskierung vor der Bildgewinnung so verschoben, dass ein Bild belichtet wird. Im Gegensatz hierzu wird in 4(b), wenn die Netzwerkkamera 2 zu dem Bereich der Privatsphäre geschwenkt wird, „B" des vorstehend genannten Endabschnitts aufgrund der Maskierung nach der Bildgewinnung so verschoben, dass ein Bild belichtet wird.
  • Infolgedessen wird in der ersten Ausführungsform eine Maskierungsprozess-Operation durch die Nutzung von zwei Sätzen an Maskierungen, vor und nachdem die Bilder gewonnen werden, in Kombination miteinander ausgeführt. Mit anderen Worten kann bei einer Maskierungsprozess-Operation, die ausgeführt wird, während die Netzwerkkamera 2 geschwenkt und gekippt wird, das Auftreten einer Verschiebung eines Maskierungsbereichs nicht vermieden werden. Auch wenn eine große Menge an Berechnungsoperationen ausgeführt wird, um das Verschieben des Maskierungsbereichs zu korrigieren, können die Berechnungsoperationen vermutlich eine weitere Verzögerung verursachen, und außerdem können solche Berechnungsoperationen im Widerspruch zu der ursprünglichen Aufgabe der vorliegenden Erfindung stehen und können hohe Kosten mit sich bringen. Folglich werden in der ersten Ausführungsform die Maskierungsprozess-Operationen einfach und beständig durch das Einsetzen von zwei Sätzen der Maskierungen ausgeführt, die vor und nach dem Gewinnen der Bilder gebildet werden. Zu diesem Zeitpunkt werden die Bilder, durch das Einsetzen einer solchen Maskierung, welche Maskierungsdaten aufweist (nämlich zwei Maskierungen werden einander überlagernd angeordnet, um einzelne Maskierungsdaten zu bilden), Maskierungs-Prozesse unterzogen, so dass die exponierten Abschnitte aufgrund des Verschiebens der vorstehend beschriebenen „A" und „B" vollständig verschwinden können.
  • Die vorstehend beschriebenen Maskierungsprozess-Operationen werden nun ausführlich beschrieben. Es wird angenommen, dass wenn eine Maskierungsprozess-Operation unmittelbar nachdem dieses Bild erfasst wurde, auf das Bild des (i – 1)ten Feldes durchgeführt wird, das Bilden einer Maskierung durch „λ Impulse" verzögert wird. Wenn ein solcher Fall in Betracht gezogen wird, in dem das Bilden dieser Maskierung weiter verzögert wird, zum Beispiel dadurch, dass eine Maskierung an einem Kopfabschnitt des „iten" Feldes gebildet wird, wird angenommen, dass dieses Zeitintervall ein Zeitvorgang darstellt, der dem Bilden der Maskierung durch „λ' Impulse" verzögert, entspricht. Ein Maskierungsbereich einer solchen Maskierung, die mit der Verzögerung durch „λ' Impulse" gebildet ist, ist durch die „λ' Impulse" verzögert, so dass dieser Maskierungsbereich definiert wird durch 4 Punkte von LU ((p·(i – 1) – λ'), k, m), LD ((p·(i – 1) – λ'), k, –m), RU ((p·i – λ'), l, m) und RD ((p·i – λ'), l, –m). Wenn „λ" gleich „λ'" gebildet ist (nämlich λ' = λ), dann wird dieses in einem solchen Fall, in dem die Maskierung unmittelbar nach dem Gewinnen des Bildes des (i – 1)ten Feldes gebildet wurde, der Maskierungsbereich.
  • Ein Bereich, der in den gewonnen Bildern des „iten" Feldes und des (i + 1)ten Feldes tatsächlich maskiert ist, ist gegeben als: LU (p·i, (k – λ·ω), m), LD (p·i, (k – λ·ω), –m), RU (p·(i + 1), (l – λ·ω), m) und RD (p·(i + 1), (l – λ·ω), –m). Dann wird der tatsächliche Maskierungsbereich als eine Maskierung des (i – 1)ten Feldes eingesetzt, die gebildet wurde durch die λ' Impuls-Verzögerung. Wenn diese Maskierung als die Maskierung in Bezug auf die Bilder eingesetzt wird, die in dem „i"ten Feld und dem (i + 1)ten Feld gewonnen werden, wird ferner eine Verzögerung hinzugefügt, aufgrund der Verschiebungen von λ' und λ, so dass die Maskierung durch die folgenden relativen Koordinaten gegeben ist: LU ((k – (λ' – λ)·ω), m), LD ((k – (λ' – λ)·ω), –m), RU ((1 – (λ' – 2λ)·ω), m) und RD ((1 – (λ' – 2λ)·ω), –m).
  • Es folgt eine Beschreibung eines solchen Falls, in dem eine Maskierung unmittelbar nach dem Bild des (i – 1)ten Feldes gebildet wird, basierend auf dieser Idee, nämlich in dem Fall von λ' = –λ. Ein linkes Ende eines Maskierungsbereichs in Bezug auf das Bild, das in dem „i"ten Feld gewonnen wurde, wird LU (k, m) und LD (k, –m) in den relativen Koordinaten. Da ein Bild, das gewonnen wird, wenn die Netzwerkkamera 2 mit einer hohen Geschwindigkeit geschwenkt wird, einer Maskierung vorausgeht, wie vorstehend beschrieben, wird der Abschnitt exponiert, der von den vier Punkten von ((k – λ·ω), m), ((k – λ·ω), –m), (k, m) und (k, –m) umgeben ist. Jedoch wird in dem Bild, das in dem (i + 1)ten Feld gewonnen wird, ein rechtes Ende des Maskierungsbereichs RU ((1 + λ·ω), m) und RD ((1 + λ·ω), –m), so dass ein Bild eines breiten Bereichs, welcher die Positionen bis zu der verzögerten Position abdeckt, maskiert werden kann.
  • Da der λ' Impuls unabhängig von dem λ Impuls, wie vorstehend beschrieben, willkürlich festgelegt werden kann, wenn das Bild einem Maskierungs-Prozess durch die Maskierung des (i – 1)ten Feldes des Kopfabschnitts der Bildgewinnungsperiode des „iten" Feldes unterzogen wird, kann das Bild beständiger in einer sicheren Art und Weise maskiert werden. In diesem Fall ist λ' = (p – q), ein Wert, der etwas größer als „q" ist, zu „p" gegeben, um 2λ < (p – q) zu erfüllen. Wie vorstehend beschrieben, kennzeichnet das Symbol „p" eine Gesamtsumme von Impulsen für 1 Teilung zwischen den jeweiligen Feldern, und das Symbol „q" zeigt eine Gesamtsumme von Impulsen an, die erforderlich sind, um einen einzelnen Bildschirm zu teilen.
  • Infolgedessen werden in der ersten Ausführungsform die neuen Maskierungsdaten basierend auf dem einzelnen Maskierungsbereich, der von diesen zwei Maskierungen erzielt wird, erzeugt, während zwei Teile der Positionsinformation, wie bei den zwei vor und nach den Bildgewinnungsschritten gebildeten Maskierungen, miteinander verwendet und dann wird das gewonnene Bild durch die Verwendung dieser Maskierungsdaten maskiert. Mit anderen Worten, basierend auf sowohl der Positionsinformation des gegenwärtigen Feldes (nämlich der Positionsinformation des Maskierungsbereichs des „iten" Feldes) als auch der Positionsinformation des vorherigen Feldes (nämlich der Positionsinformation des Maskierungsbereichs des „(i – 1)ten" Feldes), kann ein Maskierungsbereich realisiert werden, der von den 4 Punkten umgeben ist: LU ((k – λ·ω), m), LD ((k – λ·ω), –m), RU ((l + λ·ω), m) und RD ((l + λ·ω), –m). Wie in 4(c) dargestellt, können die exponierten Abschnitte des Bereichs der Privatsphäre, verursacht durch die Verschiebungen von A und B, vollständig gelöscht werden.
  • Es sollte auch beachtet werden, dass auch wenn in der vorstehend geschilderten ersten Ausführungsform die Maskierungsprozess-Operationen beschrieben wurde, während die Netzwerkkamera 2 hauptsächlich geschwenkt wurde, das System, das in der ersten Ausführungsform beschrieben wurde, in einer entsprechenden Art und Weise realisiert werden kann durch das Ausführen der Maskierungsprozess-Operationen während die Netzwerkkamera 2 gekippt wird, so dass die Maskierungsprozess-Operation ausgeführt werden kann durch die Verwendung von zwei Maskierungen, die vor und nach den Schritten der Bildgewinnung gebildet werden. Da sich eine ausführliche Maskierungsprozess-Operation der Kippbewegung sich mit derjenigen der Schwenkbewegung überschneidet, wird eine Beschreibung von dieser weggelassen.
  • Auch in dem Fall, in dem eine Zoooperation ausgeführt wird, und auch in dem Fall, in dem eine Zoomoperation ausgeführt wird, während schwenkende oder kippende Operationen ausgeführt werden, wenn die skalierende Vergrößerungskraft der Netzwerkkamera 2 verändert wird, um vergrößerte/komprimierte Bilder zu gewinnen, wird ein Maskierungsbereich eines vorhergehenden Feldes vergrößert/komprimiert in Übereinstimmung mit der skalierende Vergrößerungskraft der Netzwerkkamera 2. Während eine solche Maskierung eines Bildes verwendet wird, welche den vergrößerten/komprimierten Maskierungsbereich der vorhergehenden Sequenz und den Maskierungsbereich der gegenwärtigen Sequenz enthält, wird eine Maskierungsprozess-Operation in Bezug auf ein Bild ausgeführt, das durch die Bildgewinnungseinheit 12 gewonnen wird. Infolgedessen – auch wenn die Menge an Berechnungen, die für die vergrößernden/komprimierenden Prozessoperationen in Bezug auf den Maskierungsbereich erforderlich sind, erhöht ist – können die vergrößerten/komprimierten Bilder beständig durch Maskierungen verarbeitet werden, durch die Verwendung der Maskierungen, die vor und nach der Bildgewinnung gebildet werden.
  • Das heißt, in der ersten Ausführungsform berechnet die Vergrößerungs-/Kompressionseinheit 20b, die in 2 gezeigt ist, den vorherigen Maskierungsbereich, basierend auf den Daten, die in der Speichereinheit der vorausgehenden Information 18b gespeichert sind, und der Positionsinformation der Positionserfassungseinheit 17, berechnet nämlich die Positionsinformation (nämlich LU, LD, RU und RD) des Bereichs, der eine solche Maskierung bildet, welche die maximale Breite aufweist, während der vorstehend genannte Maskierungsbereich den vorherigen Maskierungsbereich enthält, in dem die Positionsinformation von LU, LD, RU und RD in Übereinstimmung mit der skalierenden Vergrößerungskraft verändert wurde, sowie den gegenwärtigen Maskierungsbereich. Die vergrößernde/komprimierende Einheit 20b maskiert das gegenwärtig gewonnene Bild während der Zoomoperation (das gewonnene Bild, während die Auflösung der Netzwerkkamera verändert wird) durch den Einsatz einer neuen Maskierung. Dann, nachdem die Maskierungsoperation beendet ist, wird die Information bezüglich des Maskierungsbereichs, die in der Speichereinheit der vorausgehenden Information 18/b gespeichert ist, durch die Verwendung der Information (nämlich LU, LD, RU, RD und Maskierungsdaten) bezüglich des gegenwärtig gebildeten Maskierungsbereichs aktualisiert.
  • Als nächstes werden Operationen beschrieben, die in einem solchen Fall ausgeführt werden, in dem die Terminal-Vorrichtung 3 eine Bildanfrage zu der Netzwerkkamera 2 sendet, und ein Bild, das von der Netzwerkkamera 2 übertragen wird, in Bezug auf 5 auf der Terminal-Vorrichtung 3 in einer kontinuierlichen Art und Weise angezeigt wird. Es wird angenommen, dass in dieser Netzwerkkamera 2 die optische Achse „C" in einem Anfangsstadium beispielsweise in eine Richtung eines Schwenkwinkels von 30 Grad gerichtet ist.
  • Um von der Terminal-Vorrichtung 3 ein Bild von der Netzwerkkamera 2 anzufordern, wie in 5 dargestellt – wenn die Terminal-Vorrichtung 3 eine erste Anforderungsnachricht, so wie ein „GET/camera.com/video.cgi HTTP/1.0" zu dem URL der Netzwerkkamera 2 übermittelt, und ein Bild mit der Auflösung von 320×240 Pixel und einem Schwenkwinkel von 80 Grad mittels CGI angefordert wird –, sendet die Netzwerkkamera 2 zuerst ein Paket „HTTP/1.0 200 OK", um JPEG-Daten {JPEG-DATA} zu übermitteln, so dass durch die vorstehenden Operationen ein Kommunikations-Link zwischen der Terminal-Vorrichtung 3 und der Netzwerkkamera 2 eingerichtet wird.
  • Danach entscheidet die verbundene Netzwerkkamera 2, ob der gegenwärtige Schwenkwinkel dem bestimmten Schwenkwinkel von 80 Grad entspricht oder nicht. Wenn der gegenwärtige Schwenkwinkel nicht gleich 80 Grad ist, dann führt die Netzwerkkamera 2 eine Bildgewinnung durch, während die Netzwerkkamera 2 rotiert wird, damit der gegenwärtige Schwenkwinkel 80 Grad aufweist. Die Netzwerkkamera 2 berechnet einen neuen Maskierungsbereich von einem gegenwärtigen Maskierungsbereich und einen vorherigen Maskierungsbereich und bildet Maskierungsdaten in Bezug auf ein gewonnenes Bild, um das gewonnene Bild zu maskieren, und überträgt dann diese JPEG Daten {JPEG-DATA} zu dem Endgerät 3.
  • In einem solchen Fall, in dem die Terminal-Vorrichtung 3 kontinuierlich Bilder anfordert, entscheidet die Netzwerkkamera 2 erneut, ob ein gegenwärtiger Schwenkwinkel nach der vorstehend beschriebenen Sequenz 80 Grad entspricht oder nicht, und führt die Prozessoperationen bis zu der Maskierungsprozess-Operation aus, um die JPEG Daten {JPEG-DATA} zu übertragen. Während die Netzwerkkamera 2 wiederholt diese Operation ausführt, wenn der Schwenkwinkel 80 Grad aufweist, führt die Terminal-Vorrichtung 3 nur die Maskierungsprozess-Operation aus, um kontinuierlich die JPEG Daten {JPEG-DATA} zu übertragen. Diese Operation wird fortgesetzt, bis die Terminal-Vorrichtung 3 solch eine Mitteilung übermittelt, dass die Bildanforderung gestoppt wird. Während dieser Operation, wenn die Terminal-Vorrichtung 3 den Schwenkwinkel von 80 Grad zu einem anderen Schwenkwinkel von 100 Grad verändert, und auch die vorhandene Auflösung zu einer anderen Auflösung von 640×480 Pixel verändert, überträgt die Terminal-Vorrichtung 3 „HTTP/1.0 200 OK" in Bezug auf eine Anforderungsnachricht zum Anfordern eines Schwenkwinkels und einer Auflösung, und führt wiederholt die vorstehend genannten Operationen aus.
  • Nun bezugnehmend auf ein Ablaufdiagramm von 6 wird eine Sequenz bezüglich der vorstehend beschriebenen Maskierungsprozess-Operationen beschrieben, die von der Netzwerkkamera 2 gemäß der Ausführungsform 1 ausgeführt werden. Zuerst gewinnt die Abbildungseinheit 13 der Netzwerkkamera 2 ein Bild (Schritt 1) und speichert das gewonnene Bild in der Buffereinheit 18d.
  • Als nächstes wird eine Positionsinformation einer solchen optischen Achse „C", wo das Bild, das zu dem gegenwärtigen Zeitpunkt gewonnen wird, von der Positionserfassungseinheit 17 gewonnen, so wie der Codierer (Schritt 2). Es sollte beachtet werden, dass eine Gesamtsumme von Impulsen, die von einem Zähler oder ähnlichem gezählt werden, die Positionsinformation darstellt. Außerdem wird die Positionsinformation (Maskierungsbereich) einer solchen optischen Achse „C", wo das Bild des vorhergehenden Zeitpunktes (1 vorhergehendes Feld) gewonnen wurde, aus der Speichereinheit der vorhergehenden Information 18b ausgelesen (Schritt 3). Ein neuer Maskierungsbereich wird berechnet, sowohl basierend auf der Positionsinformation (Maskierungsbereich) des gegenwärtigen Zeitpunktes (gegenwärtiges Feld) als auch der Positionsinformation (Maskierungsbereich) des vorhergehenden Zeitpunktes (1 vorhergehendes Feld), dann wird der berechnete Maskierungsbereich entlang der Schwenkrichtung und der Kipprichtung vergrößert, um Maskierungsdaten zu bilden, die in einer Maskierungsprozess-Operation verwendet werden (Schritt 4).
  • Ein gewonnenes Bild wird durch die Verwendung der Maskierungsdaten, die in dem Schritt 4 gebildet werden, Maskierungs-Prozessen unterzogen (Schritt 5). Die durch Maskierung verarbeiteten Bilddaten werden durch das Ausführen von beispielsweise einer DCT-Transformationsprozessoperation, einer Quantisierungsprozessoperation und einer Codierungsprozessoperation verarbeitet, so dass die schließlich erzeugten Bilddaten in dem JPEG Format komprimiert werden (Schritt 6). Die resultierenden Bilddaten des JPEG-Formats werden zu dem Netzwerk 1 übertragen (Schritt 7). Danach werden die Bilddaten des JPEG Formats in der Speichereinheit 18c in Übereinstimmung mit dem Einrichtungszustand aufgezeichnet, und dann wird die Prozessoperation zu dem vorherigen Schritt 1 zurückgeführt. Wenn ein Bild kontinuierlich gewonnen wird, wie in 5 dargestellt, werden eine Reihe der vorstehend genannten Prozessoperationen wiederholt ausgeführt.
  • Wie vorstehend beschrieben, wenn die Netzwerkkamera 2 der Ausführungsform 1 solche Bilder gewinnt, die einen Bereich einer Privatsphäre enthalten, während die Netzwerkkamera 2 geschwenkt und gekippt wird, bildet die Netzwerkkamera 2 Maskierungsdaten durch die Verwendung eines Maskierungsbereichs eines Bildes, das zu dem gegenwärtigen Zeitpunkt gewonnen wird, und eines anderen Maskierungsbereichs eines anderen Bildes, das zu dem vorhergehenden Zeitpunkt gewonnen wurde, und führt dann eine Maskierungsprozess-Operationen in Bezug auf das gewonnene Bild aus. Infolgedessen kann die Netzwerkkamera 2 der ersten Ausführungsform beständig vermeiden, dass solch ein Bild, dessen Anzeige nicht gewünscht ist, exponiert wird.
  • Wenn die Netzwerkkamera 2 der ersten Ausführungsform eine Zoom-Operation ausführt, vergrößert und/oder komprimiert entsprechend auch die Netzwerkkamera 2 den Maskierungsbereich des Bildes, das zu dem vorhergehenden Zeitpunkt gewonnen wurde, um die Auflösung des Maskierungsbereichs des Bildes, das zu dem gegenwärtigen Zeitpunkt gewonnen wird, in Übereinstimmung mit der skalierenden Vergrößerungskraft zu erhalten, und bildet dann eine einzelne Maskierung von diesem vergrößerten/komprimierten Maskierungsbereich des vorherigen Zeitpunktes und dem Maskierungsbereich des gegenwärtigen Zeitpunktes, um LU, LD, RU und RD zu berechnen. Infolgedessen kann die Netzwerkkamera 2 die Maskierungsprozess-Operation in einer einfachen und beständigen Art und Weise ausführen.
  • Nun wird eine Netzwerkkamera 2 gemäß einer zweiten Ausführungsform beschrieben. Die Netzwerkkamera 2 dieser zweiten Ausführungsform wird in einer Weise betrieben, die sich von der Operation der ersten Ausführungsform unterscheidet, indem – gemäß der zweiten Ausführungsform – basierend auf den zwei Maskierungen eine einzelne Maskierung gebildet wird, um die Maskierungsdaten zu bilden, und die Maskierungsprozess-Operation wird, basierend auf den gebildeten Maskierungsdaten ausgeführt. Das heißt, bei der Netzwerkkamera 2 der zweiten Ausführungsform werden erste Maskierungsdaten, basierend auf Positionsinformationen des gegenwärtigen Zeitpunktes, gebildet und dann wird eine erste Maskierungsprozess-Operation in Bezug auf ein Bild ausgeführt, das zu dem gegenwärtigen Zeitpunkt basierend auf den gebildeten ersten Maskierungsdaten gewonnen wird, und außerdem wird eine zweite Maskierungsprozess-Operation, basierend auf zweiten Maskierungsdaten, ausgeführt, die in einer Maskierungsprozess-Operation des vorhergehenden Zeitpunktes eingesetzt werden, in Bezug auf das Bild, das nach der ersten Prozessoperation gebildet ist.
  • Infolgedessen ist eine Anordnung der Netzwerkkamera 2 gemäß der zweiten Ausführungsform gleich der Anordnung der Netzwerkkamera 2 gemäß der ersten Ausführungsform, auch wenn Sequenzen der Prozessoperationen der zweiten Ausführungsform sich von denen der ersten Ausführungsform unterscheiden. Da dieselben Bezugszeichen die selben Bauteile kennzeichnen, werden Beschreibungen von diesen in der zweiten Ausführungsform weggelassen. Folglich werden nun Prozessoperationen der zweiten Ausführungsform unter Bezugnahme auf 1 bis 6 beschrieben. 7 ist ein Ablaufdiagramm für die Beschreibung von Maskierungsprozess-Operationen der Netzwerkkamera 2 gemäß der zweiten Ausführungsform. In dem Ablaufdiagramm von 7 gewinnt die abbildende Einheit 13 der Netzwerkkamera 2 ein Bild (Schritt 11) und speichert das gewonnene Bild in der Buffereinheit 18d.
  • Als nächstes wird eine Positionsinformation einer solchen optischen Achse „C", wo das Bild zu dem gegenwärtigen Zeitpunkt gewonnen wird, von der Positionserfassungseinheit 17 wie dem Codierer gewonnen (Schritt 12). Dann werden Maskierungsdaten des gegenwärtigen Zeitpunkts (nämlich erste Maskierungsdaten), basierend auf dieser Positionsinformation (Schritt 13) gebildet. Es sollte beachtet werden, dass Maskierungsdaten in einer solchen Art und Weise erzielt werden, dass Randpositionen (LU, LD, RU und RD) eines Maskierungsbereichs berechnet werden in Bezug auf einen Bildschirm, der durch Positionsinformationen erzielt wird, und der Maskierungsbereich von den linken Endpositionen LU, LD und den rechten Endpositionen RU, RD vergrößert wird, um vorbestimmte Daten zu jeweiligen Punkten innerhalb eines Bereichs anzuwenden. Ein Bild, das bei der gegenwärtigen Bildgewinnung gewonnen wird, wird basierend auf diesen Maskierungsdaten durch Maskierung verarbeitet (nämlich eine erste Maskierungsoperation) (Schritt 14).
  • Darauf folgend werden die Maskierungsdaten (zweite Maskierungsdaten), durch welche die Maskierungsprozess-Operation des gegenwärtigen Zeitpunktes ausgeführt wurde (1 vorhergehendes Feld), von der Speichereinheit der vorhergehenden Information 18b ausgelesen (Schritt 15). Als nächstes wird das Bild, das Maskierungs-Prozessen unterzogen wurde (erste Maskierungsprozess-Operation), in dem Schritt 14 durch Maskierungs- Prozesse (nämlich die zweite Maskierungsprozess-Operation), basierend auf den gelesenen Maskierungsdaten (nämlich die zweiten Maskierungsdaten), unterzogen (Schritt 16).
  • Außerdem werden die Maskierungsdaten (zweite Maskierungsdaten) des gegenwärtigen Zeitpunktes 1 (1 vorhergehendes Feld), die in der Speichereinheit der vorhergehenden Information 18b gespeichert sind, durch die Maskierungsdaten erneuert (erste Maskierungsdaten), die in Schritt 13 erzielt werden (Schritt 17). Diese Daten werden verarbeitet durch das Ausführen von zum Beispiel einer DCT Transformationsprozessoperation, einer Quantisierungsprozessoperation und einer Codierungsprozessoperation, so dass das Bild der schließlich erzeugten Maskierungsdaten in dem JPEG Format komprimiert wird (Schritt 18). Die resultierenden Bilddaten des JPEG Formats werden zu dem Netzwerk 1 übertragen (Schritt 19). Danach werden diese Bilddaten des JPEG Formats in der Speichereinheit 18c aufgezeichnet, in Übereinstimmung mit dem Einrichtungszustand, und dann wird die Prozessoperation zu dem vorherigen Schritt 11 zurückgeführt. Wenn ein Bild kontinuierlich gewonnen wird, wie in 5 dargestellt, werden eine Reihe der vorstehend genannten Prozessoperationen wiederholt ausgeführt.
  • Wie vorstehend beschrieben, wenn die Netzwerkkamera 2 der zweiten Ausführungsform solche Bilder gewinnt, die ein vorbestimmtes Bildobjekt eines Bereichs einer Privatsphäre enthalten, während die Netzwerkkamera 2 geschwenkt und gekippt wird, führt die Netzwerkkamera 2 Maskierungsprozess-Operationen durch die Verwendung von Maskierungsdaten in Bezug auf ein Bild, das zu einem gegenwärtigen Abbildungszeitpunkt gewonnen wird, und anderen Maskierungsdaten in Bezug zu einem anderen Bild, das zu einem vorhergehenden Abbildungszeitpunkt gewonnen wurde, zwei mal in einer sich überschneidenden Art und Weise aus. Infolgedessen kann die Netzwerkkamera 2 der zweiten Ausführungsform beständig vermeiden, dass solch ein Bild, dessen Anzeige nicht gewünscht ist, exponiert wird.
  • Wenn die Netzwerkkamera 2 der zweiten Ausführungsform eine Zoom-Operation ausführt, bildet die Netzwerkkamera 2 eine Maske von dem Maskierungsbereich des gegenwärtigen Abbildungszeitpunkts, und berechnet LU, LD, RU und RD, um eine erste Maskierungsprozess-Operation auszuführen. Darauf folgend vergrößert und/oder komprimiert die Netzwerkkamera 2 den Maskierungsbereich des vorhergehenden Abbildungszeitpunkts, um die Auflösung des Maskierungsbereichs des gegenwärtigen Abbildungszeitpunkts in Übereinstimmung mit der skalierenden Vergrößerungskraft zu erzielen, und führt dann eine zweite Maskierungsprozess-Operation, basierend auf diesen vergrößerten/komprimierten Maskierungsbereich des vorhergehenden Abbildungszeitpunktes aus. Infolgedessen kann die Netzwerkkamera 2 die Maskierungsprozess-Operationen in einer einfachen und beständigen Art und Weise ausführen.
  • Diese Anmeldung basiert auf und beansprucht den Vorteil der Priorität der japanischen Patentanmeldung Nr. 2006-216890 , eingereicht am 9. August 2006, wobei deren Inhalte durch Bezug in Ihrer Gesamtheit hierin eingeschlossen sind.

Claims (9)

  1. Netzwerkkamera, umfassend: eine Kamera, die konfiguriert ist, ein Bild aufzunehmen, wobei die Kamera innerhalb eines vorbestimmten Bereiches bewegbar ist; einen Speicher, der konfiguriert ist, vorbestimmte Positionsinformationen einer vorbestimmten Zone zu speichern, wobei die vorbestimmte Zone von der Anzeige des Bildes auf dem Display ausgeschlossen werden soll; und eine Steuerungsvorrichtung, die konfiguriert ist, die Kamera zu steuern, damit sich diese innerhalb des Bereichs bewegt, und um von der Kamera in regelmäßigen Zeitintervallen eine Reihe von Bildern zu gewinnen, und um eine Maskierungs-Operation nach Bestimmung, dass die vorbestimmte Zone innerhalb des gegenwärtigen Bildes liegt, durchzuführen, um einen Bildbereich zu maskieren, wobei der Bildbereich sowohl das Bild der vorbestimmten Zone zur gegenwärtigen Zeit als auch das Bild der vorbestimmten Zone, des in einem Intervall vor der gegenwärtigen Zeit aufgenommen wurde.
  2. Netzwerkkamera gemäß Anspruch 1, wobei die Steuerungsvorrichtung konfiguriert ist, dass als ein Anfangsrand einer Maskierung einen Anfangsrand des Bildes der vorbestimmten Zone, das in einem Intervall vor der gegenwärtigen Zeit erfasst wurde, definiert und das als ein Endrand der Maskierung einen Endrand des Bildes der vorbestimmten Zone, das in der gegenwärtigen Zeit erfasst wird, definiert und die Steuerungsvorrichtung konfiguriert ist, die Maskierungs-Operation in Bezug auf den Bildbereich durchzuführen, wobei der Bildbereich von dem Anfangsrand der Maskierung bis zum Endrand der Maskierung eingefasst ist.
  3. Netzwerkkamera gemäß Anspruch 1 oder 2, wobei die Steuerungsvorrichtung konfiguriert ist, nach Erfassung eines Bildes umfassend die vorbestimmte Zone das erfasste Bild zu vergrößern und den Bildbereich zu maskieren, wobei der Bildbereich sowohl das Bild umfasst, das zur gegenwärtigen Zeit in der vorbestimmten Zone erfasst und vergrößert wird, als auch das Bild, das in einem Intervall vor der gegenwärtigen Zeit in der vorbestimmten Zone erfasst und vergrößert wurde.
  4. Netzwerkkamera gemäß Anspruch 1, 2 oder 3, wobei die Steuerungsvorrichtung konfiguriert ist, nach Erfassung eines Bildes umfassend die vorbestimmte Zone das erfasste Bild zu verkleinern und den Bildbereich zu maskieren, wobei der Bildbereich sowohl das Bild umfasst, das zur gegenwärtigen Zeit in der vorbestimmten Zone erfasst und verkleinert wird, als auch das Bild, das in einem Intervall vor der gegenwärtigen Zeitperiode in der vorbestimmten Zone erfasst und reduziert wurde.
  5. Netzwerkkamera gemäß einem vorstehenden Anspruch, zusätzlich umfassend eine Schnittstelle, die konfiguriert ist, eine Verbindung zu einer Terminal-Vorrichtung bereitzustellen.
  6. Netzwerkkamera gemäß einem vorstehenden Anspruch, wobei die Steuerungsvorrichtung konfiguriert ist, sowohl das Bild, das zur gegenwärtigen Zeit in der vorbestimmten Zone erfasst wurde, als auch das Bild, das in einem Intervall vor der gegenwärtigen Zeit erfasst wurde, zu überlappen und die Maskierungs-Operation in Bezug auf die überlappenden Bilder durchzuführen.
  7. Netzwerkkamera gemäß einem vorstehenden Anspruch, wobei der Speicher konfiguriert ist, die erste Positionsinformationen des Bildes, das in einem Intervall vor der gegenwärtigen Zeit in der vorbestimmten Zone erfasst wurde, zu speichern, und die Steuerungsvorrichtung konfiguriert ist, eine Einzelmarkierung zu bilden, wenn die erste Positionsinformation, die in dem Speicher gespeichert ist, und die zweite Positionsinformation des Bildes, das zur gegenwärtigen Zeit in der vorbestimmten Zone erfasst wird, überlappen, und die Maskierungs-Operation durch Verwendung der Einzelmaskierung durchzuführen.
  8. Netzwerkkamera gemäß einem vorstehenden Anspruch, wobei die Steuerungsvorrichtung konfiguriert ist, erste Maskierungsdaten basierend auf erster Positionsinformation betreffend das Bild, das in einem Intervall vor der gegenwärtigen Zeit in der vorbestimmten Zone erfasst wurde, zu bilden und die ersten Maskierungsdaten in dem Speicher zu speichern, und die Steuerungsvorrichtung konfiguriert ist, zweite Maskierungsdaten basierend auf zweiter Positionsinformation betreffend das Bild, das zur gegenwärtigen Zeit in der vorbestimmten Zone erfasst wurde, zu bilden und die Maskierungs-Operation unter Verwendung der zweiten Maskierungsdaten und der ersten Maskierungsdaten, die in dem Speicher gespeichert sind, durchzuführen.
  9. Verfahren zum Steuern einer Netzwerkkamera, wobei die Netzwerkkamera eine Kamera und einen Speicher hat, wobei die Kamera betriebsbereit ist, ein Bild aufzunehmen und innerhalb eines vorbestimmten Bereiches bewegbar ist, wobei der Speicher betriebsbereit ist, Positionsinformationen einer vorbestimmten Zone, welche vorbestimmte Zone von einer Anzeige eines Bildes ausgeschlossen werden soll, zu speichern, wobei das Verfahren umfasst: Steuern der Kamera, damit sich diese innerhalb des Bereiches bewegt; Erfassen einer Serie an Bildern von der Kamera zu regulären Intervallen; und Durchführen einer Maskierungs-Operation nach Bestimmung, dass die vorbestimmte Zone innerhalb eines gegenwärtigen Bildes liegt, um einen Bildbereich zu maskieren, wobei der Bildbereich sowohl das Bild umfasst, das zu einer gegenwärtigen Zeit die vorbestimmte Zone erfasst, als auch das Bild, das in einem Intervall vor der gegenwärtigen Zeitperiode die vorbestimmte Zone erfasst.
DE102007037310A 2006-08-09 2007-08-08 Netzwerkkamera und Steuerungsverfahren hierfür Withdrawn DE102007037310A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006216890A JP4940820B2 (ja) 2006-08-09 2006-08-09 ネットワークカメラ
JP2006-216890 2006-08-09

Publications (1)

Publication Number Publication Date
DE102007037310A1 true DE102007037310A1 (de) 2008-04-03

Family

ID=38543216

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007037310A Withdrawn DE102007037310A1 (de) 2006-08-09 2007-08-08 Netzwerkkamera und Steuerungsverfahren hierfür

Country Status (4)

Country Link
US (1) US20080036877A1 (de)
JP (1) JP4940820B2 (de)
DE (1) DE102007037310A1 (de)
GB (1) GB2440824B (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4508257B2 (ja) 2008-03-19 2010-07-21 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5002506B2 (ja) * 2008-03-26 2012-08-15 株式会社エルモ社 カメラシステム
JP5352150B2 (ja) * 2008-08-01 2013-11-27 パナソニック株式会社 撮像装置
KR20100081465A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 카메라의 팬 틸트 방법 및 장치
JP5132705B2 (ja) * 2010-03-26 2013-01-30 株式会社日立製作所 画像処理装置
JP5701007B2 (ja) * 2010-10-19 2015-04-15 キヤノン株式会社 監視カメラ装置及び監視カメラ装置の制御方法
JP5791256B2 (ja) * 2010-10-21 2015-10-07 キヤノン株式会社 表示制御装置、表示制御方法
GB2514495B (en) 2012-01-31 2015-04-22 Panasonic Ip Man Co Ltd Image processing device and image processing method
JP5875463B2 (ja) * 2012-05-21 2016-03-02 キヤノン株式会社 撮像装置、マスク画像設定方法、および、プログラム
JP5973806B2 (ja) * 2012-06-28 2016-08-23 キヤノン株式会社 撮像装置、撮像装置の制御方法、およびプログラム
JP6157094B2 (ja) * 2012-11-21 2017-07-05 キヤノン株式会社 通信装置、設定装置、通信方法、設定方法、及び、プログラム
JP6112479B2 (ja) * 2012-11-29 2017-04-12 パナソニックIpマネジメント株式会社 監視カメラ装置、それを含む監視システム、マスク処理方法、及びマスク処理プログラム
JP6315895B2 (ja) * 2013-05-31 2018-04-25 キヤノン株式会社 撮像装置、画像処理装置、撮像装置の制御方法、画像処理装置の制御方法、プログラム
TW201537976A (zh) * 2014-03-31 2015-10-01 Amaryllo International Inc 監視攝影裝置控制系統
RU2686154C1 (ru) * 2018-05-29 2019-04-24 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Телекамера и способ для формирования панорамного видеоизображения и распознавания объектов на нем

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529234B2 (en) * 1996-10-15 2003-03-04 Canon Kabushiki Kaisha Camera control system, camera server, camera client, control method, and storage medium
JP3722653B2 (ja) * 1999-08-31 2005-11-30 松下電器産業株式会社 監視カメラ装置及び監視カメラの表示方法
US6509926B1 (en) * 2000-02-17 2003-01-21 Sensormatic Electronics Corporation Surveillance apparatus for camera surveillance system
US7307652B2 (en) * 2000-03-10 2007-12-11 Sensormatic Electronics Corporation Method and apparatus for object tracking and detection
MXPA03010039A (es) * 2001-05-04 2004-12-06 Legend Films Llc Sistema y metodo para mejorar la secuencia de imagen.
US7161615B2 (en) * 2001-11-30 2007-01-09 Pelco System and method for tracking objects and obscuring fields of view under video surveillance
JP3996805B2 (ja) * 2002-06-06 2007-10-24 株式会社日立製作所 監視カメラ装置、監視カメラシステム装置及び撮像画面のマスク方法
JP2004146890A (ja) * 2002-10-22 2004-05-20 Hitachi Ltd 監視カメラ装置及び監視カメラシステム装置
JP3938127B2 (ja) * 2003-09-29 2007-06-27 ソニー株式会社 撮像装置
KR100588170B1 (ko) * 2003-11-20 2006-06-08 엘지전자 주식회사 감시용 카메라에서의 프라이버시 마스킹 설정방법
US7742077B2 (en) * 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US8212872B2 (en) * 2004-06-02 2012-07-03 Robert Bosch Gmbh Transformable privacy mask for video camera images
US20050270372A1 (en) * 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
TW200603016A (en) * 2004-07-09 2006-01-16 Avermedia Tech Inc Surveillance system and surveillance method
JP2006050267A (ja) * 2004-08-04 2006-02-16 Matsushita Electric Ind Co Ltd IPsec通信方法及び通信制御装置並びにネットワークカメラ
JP2006109404A (ja) * 2004-09-07 2006-04-20 Matsushita Electric Ind Co Ltd アダプタ装置及びネットワークカメラシステム
US7493038B2 (en) * 2004-12-15 2009-02-17 Lg Electronics Inc. Method and apparatus for controlling privacy mask display
KR100719120B1 (ko) * 2005-02-26 2007-05-17 삼성전자주식회사 프라이버시영역을 마스크 처리하는 감시시스템 및 그 방법

Also Published As

Publication number Publication date
GB2440824A (en) 2008-02-13
GB0715426D0 (en) 2007-09-19
JP4940820B2 (ja) 2012-05-30
JP2008042729A (ja) 2008-02-21
GB2440824B (en) 2011-05-25
US20080036877A1 (en) 2008-02-14

Similar Documents

Publication Publication Date Title
DE102007037310A1 (de) Netzwerkkamera und Steuerungsverfahren hierfür
DE69930986T2 (de) Hochauflösende Kamera
DE69520329T2 (de) Kamerasteuervorrichtung und -Verfahren
DE602004010363T2 (de) Fernvideoanzeigeverfahren, videoerfassungseinrichtung, verfahren dafür und programm dafür
DE19782037C2 (de) Verfahren und Einrichtung zur Erzeugung eines zusammengesetzten Bildes
EP2030433B1 (de) Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102006055641B4 (de) Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
DE112021000208T5 (de) Multi-Kamera Videostabilisierung
DE69931973T2 (de) Digitale Kamera mit Möglichkeit zur Bildbearbeitung
DE60215732T2 (de) Steuersystem und -verfahren für eine Digitalkamera
DE69827232T2 (de) Mosaikbildverarbeitungssystem
DE69629144T2 (de) Verfahren und Vorrichtung zur Kamerakontrolle
DE69921240T2 (de) Vorrichtung zur Herstellung eines Stereoskopischen Bildes
DE69324224T2 (de) Bildverarbeitungsverfahren und -vorrichtung zum Erzeugen eines Bildes aus mehreren angrenzenden Bildern
DE112012005330B4 (de) Verfahren und Vorrichtung zur Kompensation einer Überschreitung eines gewünschten Sichtbereichs durch eine ferngesteuerte Bilderfassungsvorrichtung
DE60306737T2 (de) Verfahren und system zum bestimmen eines bereichs von bedeutung in einem zu archivierenden bild
DE112017004073B4 (de) Objektivvorrichtung, kamerasystem und linsenantriebsverfahren
DE102006001904B4 (de) Verfahren und Gerät für das automatische Anpassen von Überwachungsbildfeldern basierend auf Bildänderung
DE112013004507T5 (de) Bildverarbeitungsvorrichtung, Bilderfassungsvorrichtung, Bildverarbeitungsverfahren, Programm und Aufzeichnungsmedium
DE69320867T2 (de) Bildkommunikationsgerät
DE102012005152A1 (de) Bildaufnahmevorrichtung und bildaufnahmeoptik
DE102005023461A1 (de) Überwachungsvorrichtung
DE202017104934U1 (de) Mehrstufiges Kameraträgersystem für die stereoskope Bildaufnahme
EP1811334A1 (de) Panorama-Sicht-System insbesondere in Kampffahrzeugen
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

R005 Application deemed withdrawn due to failure to request examination
R005 Application deemed withdrawn due to failure to request examination

Effective date: 20140809