DE60220892T2 - Überwachungssystem und überwachungsverfahren - Google Patents

Überwachungssystem und überwachungsverfahren Download PDF

Info

Publication number
DE60220892T2
DE60220892T2 DE60220892T DE60220892T DE60220892T2 DE 60220892 T2 DE60220892 T2 DE 60220892T2 DE 60220892 T DE60220892 T DE 60220892T DE 60220892 T DE60220892 T DE 60220892T DE 60220892 T2 DE60220892 T2 DE 60220892T2
Authority
DE
Germany
Prior art keywords
data
state
state data
image
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60220892T
Other languages
English (en)
Other versions
DE60220892D1 (de
Inventor
Hirokazu Koizumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Application granted granted Critical
Publication of DE60220892D1 publication Critical patent/DE60220892D1/de
Publication of DE60220892T2 publication Critical patent/DE60220892T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19663Surveillance related processing done local to the camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19669Event triggers storage or change of storage policy
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • G08B13/19673Addition of time stamp, i.e. time metadata, to video stream
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Audible And Visible Signals (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Burglar Alarm Systems (AREA)

Description

  • Technischer Bereich
  • Die vorliegende Erfindung betrifft ein Überwachungssystem und ein Überwachungsverfahren und insbesondere ein Überwachungssystem und ein Überwachungsverfahren unter Verwendung einer Kamera.
  • Hintergrundtechnik
  • Im Verlauf der stetigen Weiterentwicklung von Netzwerken, wie beispielsweise des Internets und Intranets, und Bildcodierungstechniken ist es möglich geworden, ein Kamerabild an einer abgesetzten oder entfernten Position zu beobachten. Außerdem wird eine Netzwerkkamera bereitgestellt, die ein Live-Bild über ein Netzwerk an ein Endgerät überträgt. Beispielsweise ist eine von Acsiscommunications kommerziell erhältliche Kamera des Typs AXIS2100 (Produkttyp Nr. 0106-1) eine Netzwerkkamera, die ein Kamerabild über ein Netzwerk unter Verwendung der gemäß dem JPEG-(Joint Photographic Coding Experts Group) Standard standardisierten Bildcodierungstechnik auf einem Browser darstellt. Der JPEG-Standard ist in ISO/IEC (International Organization for Standardization/International Electrotechnical Commission) 10918 beschrieben. Diese Netzwerkkamera wird in den letzten Jahren zunehmend zur Personenanwesenheitszustandbestätigung verwendet. Beispiele einer Anwendung der Kamera zur Personenanwesenheitszustandbestätigung sind beispielsweise die Erfassung eines Gedränge- oder Dichtezustands von Besuchern in einem Geschäft, die Bestätigung der Anwesenheit/Abwesenheit von Arbeitnehmern oder Angestellten in einem Büro und die Kontrolle von Arbeitskräften. Dies ist eine wichtige Technik in der Personenanwesenheitszustandbestätigung.
  • 1 zeigt ein Darstellungssystem, das ein Bild auf einem Netzwerk (World Wide Web) darstellt, als herkömmliche Technik einer Personenanwesenheitszustandbestätigung. Wie in 1 dargestellt ist, weist das herkömmliche Darstellungssystem zum Darstellen eines Bildes auf dem Netzwerk ein PC-Endgerät 91 auf einer Benutzerseite als Bildanforderungsquelle, eine Netzwerkkamera 91 und ein Netzwerk 2 auf, wie beispielsweise das Internet und ein Intranet. Das Netzwerk 2 verbindet das PC-Endgerät 91 mit der Netzwerkkamera 92. Der Benutzer spezifiziert eine IP-(Internetprotokoll) Adresse der Netzwerkkamera 92 auf einem Browser auf dem PC-Endgerät 91, um ein Bild anzufordern. Die Netzwerkkamera 92 nimmt in Antwort auf die Spezifizierung der IP-Adresse ein Bild auf, komprimiert das aufgenommene Bild unter Verwendung der JPEG-Codiertechnik in Bilddaten und überträgt die komprimierten Bilddaten über das Netzwerk 2 an das PC-Endgerät 91. Das PC-Endgerät 91 empfängt die komprimierten Bilddaten und stellt sie auf dem Browser als ein durch den Benutzer angefordertes Bild dar. Unter Verwendung des herkömmlichen Darstellungssystems zum Darstellen eines Bildes auf dem Netz kann die Anwesenheit einer Person an einer entfernten Position bestätigt werden.
  • Außerdem sind in der offengelegten japanischen Patentanmeldung JP-A-2000-78276 ein "Anwesenheitszustandmanagementsystem, ein Anwesenheitszustandmanagementverfahren und ein Speichermedium" beschrieben. In diesem herkömmlichen Beispiel besteht das Anwesenheitszustandmanagementsystem aus einer Kamera, einem Kommunikationsabschnitt, einem Überwachungsabschnitt für Eingangsdaten von der Kamera, einem Bestimmungsabschnitt zum Bestimmen des in den Eingangsdaten enthaltenen Anwesenheits-/Abwesenheitszustands einer Person, und einem Abschnitt zum Schalten einer Telefonantwort basierend auf dem Bestimmungsergebnis für den Anwesenheits-/Abwesenheitszustand. Wenn ein Telefon angerufen wird, wird der Anwesenheits-/Abwesenheitszustand der angerufenen Person automatisch bestimmt, und eine Abwesenheitsmeldung wird an einen Anrufer zurückgesendet. Dadurch kann sich der Anrufer über den Anwesenheits-/Abwesenheitszustand der angerufenen Person auf einfache Weise und kostengünstig informieren.
  • Außerdem wird in der offengelegten japanischen Patentanmeldung JP-A-Heisei 8-55288 ein "Überwachungssystem" beschrieben. In diesem herkömmlichen Beispiel besteht das Überwachungssystem aus einem Mustererzeugungsabschnitt zum Erzeugen eines Musters in einem Hintergrund, einem Abbildungsabschnitt zum Aufnehmen eines Bildes des Hintergrundes, einem Hintergrundbildspeicherabschnitt, der das Hintergrundbild vorspeichert, wenn sich kein Objekt im Hintergrund befindet, einem Mustervergleichsabschnitt zum Vergleichen eines vom Abbildungsabschnitt zugeführten aktuellen Bildes mit dem im Hintergrundbildspeicherabschnitt vorgespeicherten Hintergrundbild und einem Bestimmungsabschnitt zum Bestimmen, ob ein Objekt vorhanden ist, basierend auf dem Ausgangssignal des Mustervergleichsabschnitts. Der Anwesenheits-/Abwesenheitszustand des Objekts bezüglich des Hintergrunds wird basierend auf den Bilddaten erfasst. Dadurch kann der Anwesenheits-/Abwesenheitszustand eines Hindernisses oder eines anderen Objekts in einer beliebigen Umgebung sicher bestimmt werden.
  • Außerdem wird in der offengelegten japanischen Patentanmeldung JP-A-Heisei 8-249545 ein "Kommunikationsunterstützungssystem" beschrieben. In diesem herkömmlichen Beispiel besteht das Kommunikationsunterstützungssystem aus mehreren Kommunikationsendgeräten, die einen Ton und/oder ein Bild verwenden können, und einem Netzwerk, das die mehreren Kommunikationsendgeräte miteinander, verbindet. Jedes der mehreren Kommunikationsendgeräte besteht aus einem Entscheidungsabschnitt zum Bestimmen eines Anwesenheitszustands einer Person, einem Kommunikationsabschnitt zum Übertragen von Anwesenheitszustanddaten für die Person, die mit einem Kommunikationsendgerät in Beziehung steht, an ein anderes Kommunikationsendgerät, das die Anwesenheitszustanddaten angefordert hat, wenn basierend auf dem Entscheidungsergebnis des Entscheidungsabschnitte eine Änderung vom Abwesenheitszustand auf den Anwesenheitszustand erfasst wird, und einem Darstellungsabschnitt zum Darstellen des Anwesenheitszustands der Person in der Form von visuellen Daten oder akustischen Daten basierend auf den Anwesenheitszustanddaten, die vom Kommunikationsendgerät übertragen werden, wenn eine Übertragungsanforderung für die Anwesenheitszustanddaten vom anderen Kommunikationsendgerät übertragen wird. Durch das Kommunikationsunterstützungssystem wird eine Kommunikation mit der Person basierend auf dem Anwesenheitszustand der Person ermöglicht.
  • Außerdem wird in der geprüften japanischen Patentanmeldung JP-B-Heisei 7-105844 ein "Abwesenheitszustandmitteilungssystem" beschrieben. In diesem herkömmlichen Beispiel besteht das Abwesenheitszustandmitteilungssystem aus einer Lichtschalterüberwachungseinrichtung, die überwacht, ob ein Schalter zum Ein/Ausschalten einer Beleuchtung in einem Raum, in dem ein Endgerät installiert ist, auf einen ein- oder einen ausgeschalteten Zustand eingestellt ist, einem Beleuchtungsspeicher, der eine Kombination aus dem Lichtschalter und einer Telefonnummer des Endgeräts speichert, einem Entscheidungsabschnitt, der auf den Beleuchtungsspeicher Bezug nimmt, wenn ein Ruf zum Endgerät ankommt, um den der Telefonnummer des Endgeräts entsprechenden Lichtschalter auszuwählen, und durch die Lichtschalterüberwachungseinrichtung entscheidet, ob der ausgewählte Lichtschalter auf den eingeschalteten Zustand eingestellt ist, und einem Verbindungsabschnitt, der ein ruferzeugendes Endgerät mit einer Abwesenheitszustandmitteilungseinrichtung verbindet, wenn durch den Entscheidungsabschnitt entschieden wird, dass der Lichtschalter auf den ausgeschalteten Zustand eingestellt ist. Die Verarbeitung zum Registrieren oder Löschen des Abwesenheitszu stands müssen nicht vom in einer Schaltvorrichtung angeordneten Endgerät ausgeführt werden.
  • In den vorstehend erwähnten herkömmlichen Beispielen wird keine Mitteilungsfunktion für Personenanwesenheitsdaten bereitgestellt, die die Anwesenheit einer Person anzeigen. Daher muss, wenn eine Zielperson abwesend ist, der Benutzer das Bild häufig abrufen, um sich über die Rückkehr der Zielperson zu informieren und den Anwesenheits-/Abwesenheitszustand der Zielperson basierend auf dem dargestellten Bild zu bestimmen.
  • Außerdem wird keine Mitteilungsfunktion für Beschäftigungs- oder Tätigkeitsdaten bereitgestellt, die eine Tätigkeit der Zielperson anzeigen. Daher ist, wenn die Zielperson zwar anwesend ist, jedoch eine Tätigkeit ausführt, gemäß die Zielperson sich nicht mit einer anderen Person treffen kann, weil die Zielperson z.B. an einer Sitzung teilnimmt, eine Mitteilungsfunktion über den Anwesenheits-/Abwesenheitszustand der Zielperson nicht ausreichend, um sich über die Tätigkeit der Zielperson zu informieren. Um sich über die Tätigkeit der Zielperson zu informieren, muss der Benutzer häufig ein Bild abrufen, um die Tätigkeit der Zielperson basierend auf dem dargestellten Bild zu bestimmen. Daher benötigt der Benutzer Zeit und Arbeitsaufwand, um die Tätigkeit der Zielperson zu prüfen.
  • Außerdem besteht die Gefahr, dass die Privatsphäre der Zielperson verletzt wird, weil das Bild der Zielperson direkt dargestellt wird.
  • Außerdem wird nur der aktuelle Zustand der Zielperson dargestellt, und es wird keine statistische Verarbeitung der Zustände ausgeführt. Daher können die herkömmlichen Beispiele nicht für das Management eines Geschäfts und zur Kontrolle der Angestellten verwendet werden.
  • In der EP-A-0967584 wird ein automatisches Videoüberwachungssystem zum Überwachen eines Objekts, wie beispielsweise einer Person oder eines Fahrzeugs, beschrieben. In einer Ausführungsform wird jedes der Videobilder, auf denen eine Person anwesend ist, bezüglich eines Referenzbildes verarbeitet, auf dem keine Person vorhanden ist.
  • Beschreibung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Überwachungssystem und ein Überwachungsverfahren bereitzustellen, durch die eine Operation eines Benutzers zum Bestimmen eines Anwesenheits-/Abwesenheitszustands eliminiert werden kann.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein Überwachungssystem und ein Überwachungsverfahren bereitzustellen, durch die eine Operation eines Benutzers zum Bestimmen einer Tätigkeit einer Person eliminiert werden kann.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein Überwachungssystem und ein Überwachungsverfahren bereitzustellen, durch die die Gefahr der Verletzung der Privatsphäre verhindert werden kann.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein Überwachungssystem und ein Überwachungsverfahren bereitzustellen, die für das Management eines Geschäfts und die Kontrolle von Angestellten verwendbar sind.
  • Diese Aufgaben werden durch die Merkmale der Patentansprüche gelöst.
  • Kurze Beschreibung der Zeichnungen
  • 1 zeigt ein Blockdiagramm zum Darstellen der Struktur eines herkömmlichen Bilddarstellungssystems;
  • 2 zeigt ein Blockdiagramm zum Darstellen der Struktur einer ersten Ausführungsform eines erfindungsgemäßen Überwachungssystems;
  • 3 zeigt ein Blockdiagramm zum Darstellen der Struktur einer zweiten Ausführungsform eines erfindungsgemäßen Überwachungssystems;
  • 4 zeigt ein Blockdiagramm zum Darstellen der Struktur einer dritten Ausführungsform eines erfindungsgemäßen Überwachungssystems;
  • 5 zeigt ein Blockdiagramm zum Darstellen der Struktur einer vierten Ausführungsform eines erfindungsgemäßen Überwachungssystems;
  • 6 zeigt ein Blockdiagramm zum Darstellen der Struktur einer fünften Ausführungsform eines erfindungsgemäßen Überwa chungssystems;
  • 7 zeigt ein Ablaufdiagramm einer Verarbeitung vom Empfang einer Zustandsdatenanforderung bis zur Übertragung von Anwesenheitszustandsdaten in der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 8 zeigt ein Ablaufdiagramm einer Verarbeitung für den Fall, dass in der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems eine Bestimmungsoperation permanent ausgeführt wird;
  • 9A zeigt ein Ablaufdiagramm einer Verarbeitung eines Kameraverbindungsendgeräts in der zweiten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 9B zeigt ein Ablaufdiagramm einer Verarbeitung eines Anforderungsquellenendgeräts in der zweiten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 10 zeigt ein Ablaufdiagramm einer Verarbeitung zum Abrufen von Anwesenheitszustandsdaten von einem Server in Antwort auf eine Zustandsdatenanforderung in der zweiten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 11 zeigt ein Ablaufdiagramm einer Verarbeitung von der Eingabe der Zustandsdatenanforderung bis zum Ende der Bestimmungsverarbeitung in der dritten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 12 zeigt ein Ablaufdiagramm zum Darstellen einer Verarbeitung für den Fall, dass eine Bestimmungsoperation in der dritten Ausführungsform des erfindungsgemäßen Überwachungssystems permanent ausgeführt wird;
  • 13A zeigt ein Ablaufdiagramm einer Verarbeitung eines Kameraverbindungsendgeräts in der vierten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 13B zeigt ein Ablaufdiagramm einer Verarbeitung eines Anforderungsquellenendgeräts in der zweiten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 14 zeigt ein Ablaufdiagramm einer Verarbeitung zum Abrufen von Anwesenheitszustandsdaten von einem Server in Antwort auf eine Zustandsdatenanforderung in der vierten Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 15 zeigt ein Ablaufdiagramm einer Verarbeitung der fünften Ausführungsform des erfindungsgemäßen Überwachungssystems;
  • 16A und 16B zeigen Diagramme zum Darstellen von Beispielen von Formaten der Zustandsdatenanforderung und der Anwesenheitszustandsdaten;
  • 17A und 17B zeigen Diagramme zum Darstellen anderer Beispiele von Formaten der Zustandsdatenanforderung und der Anwesenheitszustandsdaten;
  • 18A zeigt ein Diagramm zum Darstellen eines Beispiels des Formats von Statistikdaten; und
  • 18B zeigt ein Diagramm zum Darstellen eines anderen Beispiels des Formats von Statistikdaten.
  • Beste Technik zum Implementieren der Erfindung
  • Nachstehend wird ein erfindungsgemäßes Überwachungssystem unter Bezug auf die beigefügten Zeichnungen beschrieben.
  • Erste Ausführungsform
  • 2 zeigt ein Blockdiagramm zum Darstellen der Struktur der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems. Gemäß 2 besteht die erste Ausführungsform des Überwachungssystems aus einem Anforderungsquellenendgerät 1 als Bildanforderungsquelle auf der Seite eines Benutzers, einem Netzwerk 2, z.B. dem Internet und Intranets, einem Kameraabschnitt 4 zum Aufnehmen eines Bildes eines vorgegebenen Bereichs und einem mit dem Kameraabschnitt 4 und dem Netzwerk 2 verbundenen Kameraverbindungsendgerät 3. Das Netzwerk 2 verbindet das Anforderungsquellenendgerät 1 mit dem Kameraverbindungsendgerät 3. Das Kameraverbindungsendgerät 3 arbeitet basierend auf einem auf einem Speichermedium 8 gespeicherten Programm. Das Kameraverbindungsendgerät 3 kann mit mehreren Kameraabschnitten 4 oder mit nur einem Kameraabschnitt 4 verbunden sein.
  • Das Anforderungsquellenendgerät 1 erzeugt eine Zustandsdatenanforderung zum Prüfen des Anwesenheits-/Abwesenheitszustands einer Zielperson in einem vorgegebenen Bereich und überträgt die Zustandsdatenanforderung über das Netzwerk 2 an das Kameraverbindungsendgerät 3. Das Kameraverbindungsendgerät 3 bestimmt den Zustand der Zielperson im vorgegebenen Bereich basierend auf dem durch den Kameraabschnitt 4 aufgenommenen Bild in Antwort auf den Empfang der Zustandsdatenanforderung und überträgt Zustandsdaten, die das Bestimmungsergebnis anzeigen, über das Netzwerk 2 an das Anforderungsquellenendgerät 1. Das Anforderungsquellenendgerät 1 führt die Zustandsdaten dem Benutzer zu. Auf diese Weise kann sich der Benutzer über den Zustand der Zielperson informieren.
  • Der Kameraverbindungsabschnitt 3 besteht aus einem Anforderungseingangsabschnitt 31, einem Bestimmungsabschnitt 32 und einem Ergebnisausgabeabschnitt 33.
  • Der Anforderungseingangsabschnitt 31 empfängt die vom Anforderungsquellenendgerät 1 übertragene Zustandsdatenanforderung und gibt sie in Antwort auf den Empfang der Zustandsdatenanforderung an den Bestimmungsabschnitt 32 und den Ergebnisausgabeabschnitt 33 aus.
  • Der Bestimmungsabschnitt 32 weist einen Speicher 32a auf und speichert das durch den Kameraabschnitt 4 aufgenommene Bild im Speicher 32a. Auf diese Weise werden im Speicher 32a ein zuvor zu einem vorgegebenen Zeitpunkt durch den Kameraabschnitt 4 aufgenommenes Bild als Referenzbild und ein durch den Kameraabschnitt 4 zu einem vom vorgegebenen Zeitpunkt verschiedenen Zeitpunkt, z.B. zum aktuellen Zeitpunkt, aufgenommenes Bild als Vergleichsbild (aktuelles Bild) gespeichert. Der Bestimmungsabschnitt 32 vergleicht das Referenzbild mit dem Vergleichsbild, bestimmt den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich und erzeugt das Ergebnis der Bestimmung anzeigende Bestimmungsergebnisdaten. Insbesondere führt der Bestimmungsabschnitt 32 (A) eine Zustandbestimmungsverarbeitung basierend auf dem Anwesenheits-/Abwesenheitszustand einer Zielperson; (B) eine Verarbeitung zum Bestimmen eines Sitzungszustands der Zielperson; (C) eine Verarbeitung zum Bestimmen eines Telefongesprächszustands der Zielperson; und (D) eine Verarbeitung zum Bestimmen eines Sitzungsabsagezustands der Zielperson bezüglich einer anderen Person aus und erzeugt die Bestimmungsergebnisdaten. Der Bestimmungsabschnitt 32 überträgt die erzeugten Bestimmungsergebnisdaten an den Ergebnisausgabeabschnitt 33.
  • Der Ergebnisausgabeabschnitt 33 weist einen Zeitgeber (nicht dargestellt) und einen Speicher 33a auf und speichert die vom Bestimmungsabschnitt 32 übertragenen Bestimmungsergebnisdaten im Speicher 33a als aktuelle Zustandsdaten zusammen mit Datum- und Uhrzeitdaten. Außerdem überträgt der Ergebnisausgabeabschnitt 33 die aktuellen Zustandsdaten über das Netzwerk 2 an das Anforderungsquellenendgerät 1. Der Ergebnisausgabeabschnitt 33 kann zusätzlich zu den Zustandsdaten aktuelle Bilddaten an das Anforderungsquellenendgerät 1 übertragen.
  • Der Bestimmungsabschnitt 32 kann eine Bestimmungsverarbeitung ohne Bezug auf die Zustandsdatenanforderung wiederholt ausführen. Außerdem kann der Bestimmungsabschnitt 32, um elekt rische Leistung einzusparen, die Bestimmungsverarbeitung starten, wenn die Zustandsdatenanforderung durch den Anforderungseingangsabschnitt 31 empfangen wird, und die Bestimmungsverarbeitung beenden, wenn eine Endbedingung erfüllt ist. Die Endbedingung ist beispielsweise eine Änderung der Zustandsdaten, der Ablauf einer vorgegebenen Zeitdauer und die Eingabe eines Stoppbefehls durch den Benutzer. Beispielsweise besteht bei der Endbedingung die Änderung der Zustandsdaten darin, dass die durch den Bestimmungsabschnitt 33 erfassten Zustandsdaten sich von einem Abwesenheitszustand während einer Sitzung auf einen Anwesenheitszustand ändern. Der Ablauf der vorgegebenen Zeitdauer ist der Ablauf einer vorgegebenen Zeitdauer seit der Eingabe der Zustandsdatenanforderung durch den Benutzer. Der Stoppbefehl wird durch den Benutzer durch Betätigen eines auf dem Browser des Anforderungsquellenendgeräts 1 dargestellten Stopp-Icons eingegeben, und der Anforderungseingangsabschnitt 31 empfängt den Stoppbefehl.
  • Nachstehend wird die im Bestimmungsabschnitt 32 ausgeführte Bildverarbeitung beschrieben.
  • Zunächst wird ein Verfahren (A) zum Bestimmen des Anwesenheits-/Abwesenheitszustands der Zielperson beschrieben. Das Verfahren (A) zum Bestimmen des Anwesenheits-/Abwesenheitszustands der Zielperson kann geteilt werden in ein Verfahren (A1) zum Bestimmen einer Bewegung unter Verwendung einer Differenz zwischen Rahmen und ein Verfahren (A2) zum Bestimmen der Anwesenheit der Zielperson unter Verwendung einer Differenz zwischen einem Hintergrundbild und einem aktuellen Bild.
  • Im Verfahren (A1) zum Bestimmen einer Bewegung unter Verwendung einer Differenz zwischen Rahmen wird ein Helligkeitsunterschied zwischen einem Pixel eines Rahmens und einem entsprechenden Pixel eines anderen Rahmens, der sich zeitlich vom einen Rahmen unterscheidet, über alle Pixel berechnet. Das zeitlich vorangehende Rahmenbild ist ein Referenzbild, und das zeitlich nachfolgende Rahmenbild wird als Vergleichsbild be trachtet. Weil der Helligkeitsunterschied zwischen den Pixeln erzeugt wird, wenn die Zielperson sich bewegt, bestimmt der Bestimmungsabschnitt 32 den Anwesenheitszustand der Zielperson, wenn die Anzahl geänderter Pixel mit einem Helligkeitsunterschied größer oder gleich einer vorgegebenen Anzahl ist, und bestimmt andernfalls den Abwesenheitszustand. Weil manchmal ein Helligkeitsunterschied durch Rauschen erzeugt wird, wenn die Zielperson sich bewegt, erkennt der Bestimmungsabschnitt 32 ein Pixel mit einem Helligkeitsunterschied, der größer oder gleich einem Schwellenwert ist, als geändertes Pixel. Außerdem bestimmt der Bestimmungsabschnitt 32, weil kein geändertes Pixel erfasst wird, wenn eine Person stillsteht, manchmal fehlerhaft einen Abwesenheitszustand der Zielperson. Um diese Situation zu handhaben, ist es wünschenswert, wenn ein Rahmenbild, das mindestens um eine vorgegebene Zeitdauer vom Referenzrahmen beabstandet ist, als Vergleichsbild verwendet wird, weil der stationäre Zustand der Zielperson zeitlich begrenzt ist.
  • Im Verfahren (A2) zum Bestimmen des Anwesenheitszustands der Zielperson unter Verwendung des Unterschieds zwischen dem Hintergrundbild und dem aktuellen Bild wird das Hintergrundbild im Voraus durch den Kameraabschnitt 4 aufgenommen, wenn die Zielperson nicht anwesend ist, und im Speicher 32a des Bestimmungsabschnitts 32 als Referenzbild gespeichert. Der Bestimmungsabschnitt 32 berechnet den Helligkeitsunterschied zwischen dem Hintergrundbild (Referenzbild) und dem Vergleichsbild (aktuellen Bild). Wenn die Zielperson anwesend ist, wird ein Helligkeitsunterschied zwischen Pixeln in einem bestimmten Bereich erzeugt. Der Bestimmungsabschnitt 32 bestimmt den Anwesenheitszustand der Zielperson, wenn ein Helligkeitsunterschied erzeugt wird, und den Abwesenheitszustand der Zielperson, wenn kein Helligkeitsunterschied erzeugt wird. Manchmal wird ein Helligkeitsunterschied aufgrund von Rauschen erzeugt, auch wenn die Zielperson nicht anwesend ist. Dieses Problem kann jedoch unter Verwendung des vorstehend erwähnten Verfahrens gelöst werden.
  • Manchmal wird aufgrund einer Beleuchtungsänderung ein Hintergrundhelligkeitsunterschied zwischen einem alten Hintergrundbild und einem aktuellen Hintergrundbild erzeugt. In diesem Fall berechnet der Bestimmungsabschnitt 32 einen mittleren Helligkeitsänderungswert des Hintergrundbildes und des aktuellen Bildes für einen vorgegebenen Bereich und berechnet dann ein Verhältnis des Helligkeitsunterschieds zwischen den Pixeln zum mittleren Helligkeitsänderungswert. Der Bestimmungsabschnitt 32 kann den Anwesenheitszustand bestimmen, wenn die Anzahl von Pixeln mit einem Verhältnis, das größer ist als ein vorgegebener Wert, größer oder gleich einer vorgegebenen Anzahl ist.
  • Nachstehend wird das Verfahren (B) zum Bestimmen des Sitzungszustands der Zielperson beschrieben.
  • Im Verfahren (B) zum Bestimmen des Sitzungszustands der Zielperson wird beispielsweise der Hintergrund, in dem die Zielperson nicht vorhanden ist, durch den Kameraabschnitt 4 als Hintergrundbild aufgenommen, und das Hintergrundbild wird im Speicher 32a des Bestimmungsabschnitts 32 vorgespeichert. Der Bestimmungsabschnitt 32 berechnet einen Helligkeitsunterschied zwischen dem gespeicherten Hintergrundbild und einem aktuellen Bild für jeden Satz entsprechender Pixel. Die geänderten Pixel mit Helligkeitsunterschieden werden für einen Bereich erzeugt, der einer Position entspricht, an der sich die Zielperson befindet, und durch Verbinden der geänderten Pixel wird eine Menge geänderter Pixel erzeugt. Eine derartige Menge geänderter Pixel wird als eine Zielperson betrachtet. Der Bestimmungsabschnitt 32 bestimmt, dass die Zielperson sich in einer Sitzung befindet, wenn mehrere Zielpersonen vorhanden sind. Weil der Bestimmungsabschnitt 32 Rauschen als eine Person zählt, wenn Rauschen vorhanden ist, bestimmt der Bestimmungsabschnitt 32 die Menge von Pixeln mit einem Helligkeitsunterschied, der größer oder gleich einem Schwellenwert ist, als eine Zielperson. Auf diese Weise kann eine fehlerhafte Bestimmung aufgrund von Rauschen verhindert werden. Außerdem wird der Schwellenwert auf den Bereich der Menge von miteinender verbundenen geänderten Pixeln gesetzt, wobei Pixel unterhalb des Schwellenwertes als Rauschen betrachtet werden. Dadurch kann eine fehlerhafte Bestimmung vermindert werden. Um den basierend auf einer Beleuchtungsänderung verursachten Helligkeitsunterschied zwischen dem alten Hintergrundbild und dem aktuellen Hintergrundbild zu handhaben, berechnet der Bestimmungsabschnitt 32 einen mittleren Helligkeitsänderungswert des Hintergrundbildes und des aktuellen Bildes für einen vorgegebenen Bereich und berechnet dann ein Verhältnis des Helligkeitsunterschiedes zwischen den Pixeln zum mittleren Helligkeitsänderungswert. Pixel mit einem Verhältnis, das größer oder gleich dem vorgegebenen Wert ist, werden als geänderte Pixel bestimmt, und die Menge geänderter Pixel kann als eine Person betrachtet werden.
  • Nachstehend wird das Verfahren (C) zum Bestimmen eines Telefongesprächszustands einer Zielperson beschrieben.
  • Im Verfahren (C) zum Bestimmen eines Telefongesprächszustands der Zielperson wird durch den Kameraabschnitt 4 ein Telefonbereich in einem Zustand aufgenommen, in dem ein Telefon nicht verwendet wird, und als Referenzbild im Speicher 32a gespeichert. Außerdem wird der Telefonbereich durch den Kameraabschnitt 4 zu einem aktuellen Zeitpunkt aufgenommen und als aktuelles Bild im Speicher 32 gespeichert. Der Bestimmungsabschnitt 32 vergleicht das Referenzbild und das aktuelle Bild und bestimmt, ob die Zielperson ein Telefongespräch führt, wenn der Helligkeitsunterschied groß ist. Wenn Rauschen vorhanden ist, wird ein Schwellenwert gesetzt, weil der Helligkeitsunterschied dann auch erzeugt wird, wenn das Telefon nicht verwendet wird. Wenn der Helligkeitsunterschied größer oder gleich einem Schwellenwert ist, bestimmt der Bestimmungsabschnitt 32, dass die Zielperson ein Telefongespräch führt. Außerdem bestimmt der Bestimmungsabschnitt 32 einen Anwesenheitszustand nur dann, wenn die Anzahl der geänderten Pixel mit einem Helligkeitsun terschied, der größer oder gleich einem Schwellenwert ist, größer ist als eine vorgegebene Anzahl, um eine vorübergehende Erzeugung von Rauschen zu handhaben, das größer oder gleich dem Schwellenwert ist. Außerdem wird manchmal aufgrund einer Beleuchtungsänderung ein Hintergrundhelligkeitsunterschied zwischen dem alten Hintergrundbild und dem aktuellen Hintergrundbild erzeugt. In diesem Fall berechnet der Bestimmungsabschnitt 32 einen mittleren Helligkeitsänderungswert des Hintergrundbildes und des aktuellen Bildes für einen vorgegebenen Bereich und berechnet dann ein Verhältnis des Helligkeitsunterschieds zwischen den Pixeln zum mittleren Helligkeitsänderungswert. Der Bestimmungsabschnitt 32 kann den Anwesenheitszustand bestimmen, wenn die Anzahl von Pixeln mit einem Verhältnis, das größer oder gleich einem vorgegebenen Wert ist, größer ist als ein vorgegebenen Wert.
  • Nachstehend wird das Verfahren (D) zum Bestimmen eines Sitzungsabsagezustands der Zielperson beschrieben, gemäß dem die Zielperson die Teilnahme an einer Sitzung mit einer anderen Person absagt.
  • Im Verfahren zum Bestimmen des Sitzungsabsagezustands der Zielperson gemäß dem die Zielperson die Teilnahme an einer Sitzung mit einer anderen Person absagt, wird ein die Absage der Teilnahme an einer Sitzung anzeigendes Zeichen platziert und durch die Kamera aufgenommen, wenn die Zielperson die Sitzung mit der anderen Person absagen möchte. Das Bild des Zeichens dieses Sitzungsabsagezustands wird durch den Kameraabschnitt 4 im Voraus aufgenommen und im Speicher 32a des Bestimmungsabschnitts 32 als Referenzbild gespeichert. Der Bestimmungsabschnitt 32 erfasst, ob das Bild des Zeichens im aktuellen Bild vorhanden ist und bestimmt einen Sitzungsabsagezustand, wenn das Bild des Zeichens vorhanden ist. In einem Suchalgorithmus wird ein Bereich mit der gleichen Größe wie das Referenzbild vom aktuellen Bild extrahiert, und ein Helligkeitsunterschied zwischen den entsprechenden Pixeln eines vom aktuellen Bild ex trahierten Bildes und des Referenzbildes wird berechnet. Der Bestimmungsabschnitt 32 bestimmt, dass das extrahierte Bild das Bild des Zeichens des Sitzungsabsagezustands ist, wenn das extrahierte Bild mit dem Referenzbild übereinstimmt. Es wird ein anderer Bereich vom aktuellen Bild extrahiert, wenn ein Unterschied zwischen dem extrahierten Bild und dem Referenzbild vorhanden ist, und dann wird die vorstehend erwähnte Übereinstimmungsverarbeitung erneut ausgeführt. Auf diese Weise bestimmt, wenn das Bild des Zeichens des Sitzungsabsagezustands auch dann nicht erfasst wird, wenn das gesamte aktuelle Bild durchsucht wird, der Bestimmungsabschnitt 32, dass der Zielperson kein Sitzungsabsagezustand zugeordnet ist. Nur die geänderten Pixel mit einem Helligkeitsunterschied, der größer oder gleich einem Schwellenwert ist, werden für die Bestimmungsverarbeitung verwendet, weil der Helligkeitsunterschied auch dann erzeugt wird, wenn Rauschen vorhanden ist. Außerdem bestimmt der Bestimmungsabschnitt 32 den Sitzungsabsagezustand nur dann, wenn die Anzahl der geänderten Pixel mit einem Helligkeitsunterschied, der größer oder gleich einem Schwellenwert ist, größer ist als eine vorgegebene Anzahl, um eine vorübergehende Erzeugung von Rauschen zu handhaben, das größer oder gleich dem Schwellenwert ist. Manchmal wird aufgrund einer Beleuchtungsänderung ein Hintergrundhelligkeitsunterschied zwischen einem alten Hintergrundbild und dem aktuellen Hintergrundbild erzeugt. In diesem Fall berechnet der Bestimmungsabschnitt 32 einen mittleren Helligkeitsänderungswert des Hintergrundbildes und des aktuellen Bildes für einen vorgegebenen Bereich und berechnet dann ein Verhältnis des Helligkeitsunterschieds zwischen den Pixeln zum mittleren Helligkeitsänderungswert. Der Bestimmungsabschnitt 32 kann den Sitzungsabsagezustand bestimmen, wenn die Anzahl von Pixeln mit einem Verhältnis, das größer oder gleich einem vorgegebenen Wert ist, größer ist als ein vorgegebener Wert.
  • Als Formate für die Zustandsdatenanforderung und die Zustandsdaten kommen ein Bitfolgenformat und ein Textdatenformat in Betracht. Die 16A und 16B zeigen Beispiele der Zustandsdatenanforderung und der Zustandsdaten, wenn die Zustandsdatenanforderung und die Zustandsdaten ein Bitfolgenformat haben. Die 17A und 17B zeigen Beispiele der Zustandsdatenanforderung und der Zustandsdaten, wenn die Zustandsdatenanforderung und die Zustandsdaten ein Textdatenformat haben. Die 16A und 16B und die 17A und 17B zeigen einen Fall, in dem eine Anforderungszieladresse "target@nec.com" lautet, eine Anforderungsquellenadresse "user@nec.com" lautet und die Zustandsdaten den Inhalt "Anwesenheitszustand" und "Telefongesprächszustand" haben.
  • Gemäß den 16A und 16B zeigen die x Bits im Kopf der Bitfolge für die Zustandsdatenanforderung die Anforderungszieladresse "target@nec.com" an, und die folgenden y Bits der Bitfolge zeigen die Anforderungsquellenadresse "user@nec.com" an. In den Zustandsdaten zeigt jedes Bit einen jeweiligen Zustand an. Der den Anwesenheits-/Abwesenheitszustand anzeigende Bitwert ist "1", und der den Sitzungszustand anzeigende Bitwert ist "0". Der einen Telefongesprächszustand anzeigende Bitwert ist "1" und der einen Sitzungsabsagezustand anzeigende Bitwert ist "0".
  • Im Fall der in den 17A und 17B dargestellten Textdaten ist in der Zustandsdatenanforderung der Inhalt oder Wert von TargetAddress zum Anzeigen einer Anforderungszieladresse "target@nec.com", und der Wert von MyAdress ist "user@nec.com". Der Wert "Ja" der Anforderung zeigt die Anforderung der Zustandsdaten an. In den Zustandsdaten zeigt der Anwesenheitswert "Ja" einen Anwesenheitszustand an, und der Sitzungswert "Nein" zeigt an, dass kein Sitzungszustand vorliegt. Der Telefongesprächswert "Ja" zeigt einen Telefongesprächszustand an, und der Absagewert "Nein" zeigt an, dass kein Sitzungsabsagezustand vorliegt. Außerdem kann der Statuswert "Telefongespräch" sein.
  • Nachstehend wird unter Bezug auf 7 eine Arbeitsweise der vorstehend erwähnten ersten Ausführungsform des Überwa chungssystems beschrieben. 7 zeigt ein Ablaufdiagramm für die erste Ausführungsform des Überwachungssystems zum Darstellen eines Falls (1), in dem eine Bestimmungsverarbeitung in Antwort auf den Empfang der Zustandsdatenanforderung ausgeführt wird, und 8 zeigt ein Ablaufdiagramm zum Darstellen eines Falls, in dem eine Bestimmungsverarbeitung permanent ausgeführt wird. Auf diese Weise ist die Verarbeitung der ersten Ausführungsform des Überwachungssystems in einen Fall (1) geteilt, in dem die Bestimmungsverarbeitung in Antwort auf den Empfang der Zustandsdatenanforderung ausgeführt wird, und einen Fall (2), in dem die Bestimmungsverarbeitung permanent ausgeführt wird. Wenn die Bestimmungsverarbeitung in Antwort auf den Empfang der Zustandsdatenanforderung ausgeführt wird, muss die Bestimmungsverarbeitung nicht unnötig ausgeführt werden, so dass die Belastung des Kameraverbindungsendgeräts 3 vermindert und elektrische Leistung eingespart wird. Außerdem wird in der folgenden Beschreibung vorausgesetzt, dass bereits ein Referenzbild (Hintergrundbild) im Speicher des Bestimmungsabschnitts gespeichert ist.
  • Gemäß 7 gibt der Benutzer die Zustandsdatenanforderung vom Anforderungsquellenendgerät 1 ein, wenn der Benutzer sich über den Zustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt 101). Beispielsweise wird für das Verfahren zum Eingeben des Zustands der Zielperson ein Fenster zum Eingeben der Zustandsdatenanforderung auf dem Display des Anforderungsquellenendgeräts 1 dargestellt. Der Benutzer wählt den Namen einer Zielperson, für die der Benutzer Zustandsdaten erhalten möchte, von einer (nicht dargestellten) Zielpersonennamensliste für die Zustandsdatenanforderung aus. Jede Eintragung in der Zielpersonennamensliste enthält den Namen einer Zielperson, die Adressen des Kameraverbindungsendgeräts 3 und des Kameraabschnitts 4, die mit der Zielperson in Beziehung stehen, Positionsdaten zum Spezifizieren eines durch den Kameraabschnitt 4 für die Ziel- Person aufzunehmenden Bereichs und Bereichspezifizierungsdaten zum Spezifizieren eines Bereichs des aufgenommenen Bildes für die zu erfassende Zielperson. Auf diese Weise wird durch Auswählen des Zielpersonennamens die Zustandsdatenanforderung an das Kameraverbindungsendgerät 3 übertragen (Schritt 102). Die Zustandsdatenanforderung enthält die Adresse des Anforderungsquellenendgeräts 1, den Namen der ausgewählten Zielperson, die Adressen des Kameraverbindungsendgeräts 3 und des Kameraabschnitts 4, die der ausgewählten Zielperson zugeordnet sind, die Positionsdaten und die Bereichspezifizierungsdaten. Die Zustandsdatenanforderung ist in der nachstehenden Beschreibung immer die gleiche, insofern dies nicht ausdrücklich anders erwähnt ist.
  • Die Zustandsdatenanforderung vom Anforderungsquellenendgerät 1 wird durch den Anforderungseingangsabschnitt 31 des basierend auf der Adresse spezifizierten Kameraverbindungsendgeräts 3 über das Netzwerk 2 empfangen (Schritt 103). Der Anforderungseingangsabschnitt 31 gibt den Namen, die Kameraabschnittsadresse, die Positionsdaten und die Bereichspezifizierungsdaten der ausgewählten Zielperson, die in der empfangenen Zustandsdatenanforderung enthalten sind, an den Bestimmungsabschnitt 32 aus und gibt die Adresse des Anforderungsquellenendgeräts 1, die in der empfangenen Zustandsdatenanforderung enthalten ist, an den Ergebnisausgabeabschnitt 33 aus. Der Bestimmungsabschnitt 32 wählt den Kameraabschnitt 4 basierend auf der Adresse des Kameraabschnitts 4 aus und steuert den Kameraabschnitt 4 basierend auf den Positionsdaten, ihn auf die Zielperson zu richten.
  • Außerdem wählt der Bestimmungsabschnitt 32 einen entsprechenden Kameraabschnitt 4 basierend auf dem in der Zustandsdatenanforderung enthaltenen Namen der ausgewählten Zielperson aus, wenn die Kameraabschnittadresse und die Positionsdaten nicht in der Zustandsdatenanforderung enthalten sind. Der Bestimmungsabschnitt 32 weist eine Abbildungspositionsliste (nicht dargestellt) auf. Die Abbildungspositionsliste enthält einen Namen der Zielperson und eine Kameraabschnittadresse zum Spezifizieren eines entsprechenden von mehreren Kameraabschnitten 4, die Positionsdaten (die eine horizontale Winkelposition, eine vertikale Winkelposition und eine Zoomposition des spezifizierten Kameraabschnitts 4 enthalten) und die Bereichspezifizierungsdaten. Der Bestimmungsabschnitt 32 kann basierend auf dem Namen der ausgewählten Zielperson auf die Kameraabschnittadresse Bezug nehmen und den Kameraabschnitt 4 basierend auf der Kameraabschnittadresse spezifizieren und die Position des spezifizierten Kameraabschnitts 4 basierend auf der horizontalen Winkelposition, der vertikalen Winkelposition und der Zoomposition steuern.
  • Auf diese Weise wird das Bild der Zielperson durch den Kameraabschnitt 4 aufgenommen, und das aufgenommene Bild wird durch den Bestimmungsabschnitt 32 als aktuelles Bild abgerufen (Schritt S104). Dann bestimmt der Bestimmungsabschnitt 32 einen Anwesenheits-/Abwesenheitszustand, einen Sitzungszustand, einen Telefongesprächszustand oder einen Sitzungsabsagezustand der Zielperson basierend auf dem Referenzbild und dem abgerufenen aktuellen Bild für den basierend auf den Bereichsspezifizierungsdaten spezifizierten Bereich unter Verwendung der Bildverarbeitung (Schritt 105). In diesem Fall wird zum Bestimmen des Zustands durch die Bildverarbeitung eines der vorstehend erwähnten Verfahren (A) bis (D) angewendet. Außerdem erzeugt der Bestimmungsabschnitt 32 die Zustandsdaten basierend auf den Bestimmungsergebnisdaten. Der Bestimmungsabschnitt 32 untersucht, ob der Ergebnisausgabeabschnitt 33 die Zustandsdaten nach dem Empfang der Zustandsdatenanforderung mindestens einmal an das Anforderungsquellenendgerät 1 übertragen hat (Schritt S106). Zu diesem Zweck ruft der Bestimmungsabschnitt 32 das aktuelle Datum und die aktuelle Uhrzeit der vom Ergebnisausgabeabschnitt 33 übertragenen Zustandsdaten von einem der Zielperson zugeordneten Bereich des Speichers 33a ab. Wenn basierend auf dem ab gerufenen aktuellen Datum und der aktuellen Uhrzeit bestimmt wird, dass der Ergebnisausgabeabschnitt 33 die Zustandsdaten noch nicht übertragen hat (Nein in Schritt S106), schreitet die Verarbeitung zu Schritt S108 fort. In Schritt S108 gibt der Bestimmungsabschnitt 32 die Zustandsdaten an den Ergebnisausgabeabschnitt 33 aus. Der Ergebnisausgabeabschnitt 33 speichert die Zustandsdaten zusammen mit den Datum- und Uhrzeitdaten im Speicher 33a. Außerdem überträgt der Ergebnisausgabeabschnitt 33 die Zustandsdaten unter Verwendung der Anforderungsquellenendgerätadresse an das Anforderungsquellenendgerät 1 (Schritt S108). Wenn basierend auf dem abgerufenen aktuellen Datum und der aktuellen Uhrzeit bestimmt wird, dass der Ergebnisausgabeabschnitt 33 die Daten einmal übertragen hat (Ja in Schritt S106), schreitet die Verarbeitung zu Schritt S107 fort. In Schritt S107 vergleicht der Ergebnisausgabeabschnitt 33 die bestimmten aktuellen Zustandsdaten mit den im Speicher 33a gespeicherten letzten Zustandsdaten. Dadurch wird bestimmt, ob die Zustandsdaten sich beispielsweise vom Abwesenheitszustand oder Sitzungzustand auf den Anwesenheitszustand geändert haben. Wenn die Zustandsdaten nicht miteinander übereinstimmen, d.h., wenn die Zustandsdaten sich geändert haben (Ja in Schritt S107), speichert der Ergebnisausgabeabschnitt 33 die bestimmten aktuellen Zustandsdaten zusammen mit dem aktuellen Datum und der aktuellen Uhrzeit im Speicher 33a und überträgt die aktuellen Zustandsdaten unter Verwendung der Anforderungsquellenendgerätadresse an das Anforderungsquellenendgerät 1 (Schritt S108). Daraufhin schreitet die Verarbeitung zu Schritt S109 fort. Andererseits schreitet die Verarbeitung, wenn festgestellt wird, dass die Zustandsdaten sich nicht geändert haben (Nein in Schritt S107), direkt zu Schritt S109 fort.
  • Daraufhin bestimmt der Ergebnisausgabeabschnitt 33, ob eine Endbedingung erfüllt ist (Schritt S109), wobei eine Endbedingung eine Änderung der im Speicher 33a gespeicherten Zustandsdaten, der Ablauf einer vorgegebenen Zeitdauer oder der Empfang eines Stoppbefehls vom Benutzer durch den Anforderungseingangsabschnitt 31 ist. Wenn die Endbedingung nicht erfüllt ist (Nein in Schritt S109), gibt der Ergebnisausgabeabschnitt 33 Daten, die anzeigen, dass die Endbedingung nicht erfüllt ist, an den Bestimmungsabschnitt 32 aus. Der Bestimmungsabschnitt 32 wiederholt Schritt S104, um Bilddaten vom Kameraabschnitt 4 abzurufen. Wenn die Endbedingung erfüllt ist, wird die Verarbeitung beendet. Die Endbedingung kann durch den Benutzer vor der Übertragung der Zustandsdatenanforderung gesetzt werden, oder die Endbedingung kann bei der Herstellung festgelegt werden.
  • Die Entscheidung, ob die Endbedingung erfüllt ist, kann folgendermaßen realisiert werden. Hinsichtlich der Änderung der Zustandsdaten wird entschieden, dass die Endbedingung erfüllt ist, wenn die in Schritt S107 im Speicher 33a gespeicherten Zustandsdaten sich geändert haben. Hinsichtlich des Ablaufs der vorgegebenen Zeitdauer wird ein Zeitgeber (nicht dargestellt) des Ergebnisausgabeabschnitts 33 in Antwort auf den Empfang der Zustandsdatenanforderung gestartet, und es wird entschieden, dass die Endbedingung erfüllt ist, wenn die vorgegebene Zeitdauer verstrichen ist. Hinsichtlich des durch den Benutzer eingegebenen Stoppbefehls wird entschieden, dass die Endbedingung erfüllt ist, wenn der Stoppbefehl vom Anforderungsquellenendgerät 1 zum Kameraverbindungsendgerät 3 übertragen wird, wobei der Benutzer zu diesem Zweck einen im Fenster auf einem Display des Anforderungsquellenendgeräts 1 dargestellten Stopp-Icon drückt oder das Fenster schließt, woraufhin das Kameraverbindungsendgerät 3 den Stoppbefehl empfängt.
  • Weil ein Prozess beendet wird, um eine unnötige Verarbeitung zu vermeiden, wenn die Endbedingung erfüllt ist, kann elektrische Leistung eingespart werden. Außerdem kann ein Überlastzustand des Kameraverbindungsendgeräts 3 vermieden werden, gemäß dem die Zustandsdaten weiterhin übertragen werden, wenn der Benutzer vergisst, den Stoppbefehl einzugeben, wodurch ver hindert werden kann, dass ein Überlastzustand des Netzwerks verursacht wird.
  • Daraufhin empfängt das Anforderungsquellenendgerät 1 die über das Netzwerk 2 übertragenen Zustandsdaten (Schritt S110). Die Zustandsdaten werden auf dem Display des Anforderungsquellenendgeräts 1 dargestellt. Auf diese Weise kann der Benutzer sich über den Zustand der ausgewählten Zielperson informieren (Schritt S111). Es stehen verschiedene Darstellungsverfahren zur Verfügung, z.B. ein Verfahren zum Darstellen der Zustandsdaten durch Buchstaben in einem auf einem Display dargestellten Fenster und ein Verfahren zum Darstellen der Zustandsdaten in einem Webbrowser. Wenn sich die Zustandsdaten in der ersten Ausführungsform des Überwachungssystems ändern, wird die Zustandsdatendarstellung aktualisiert.
  • Nachstehend wird unter Bezug auf 8 eine Verarbeitung beschrieben, die ausgeführt wird, wenn die Bestimmungsverarbeitung permanent ausgeführt wird (Fall (2)). Wenn die Bestimmungsverarbeitung permanent ausgeführt wird, werden die Zustandsdaten beim Empfang der Zustandsdatenanforderung vom Kameraverbindungsendgerät 3 zum Anforderungsquellenendgerät 1 übertragen. Daher muss vor der Übertragung nicht auf das Ende der Bestimmungsverarbeitung gewartet werden, wodurch die Ansprechzeit verkürzt werden kann.
  • Gemäß 8 gibt der Benutzer die Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über den Zustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S101). Das Eingabeverfahren entspricht dem in 7 dargestellten Ablaufdiagramm. Dadurch wird die Zustandsdatenanforderung an das Kameraverbindungsendgerät 3 übertragen (Schritt S102).
  • Der Bestimmungsabschnitt 32 des Kameraverbindungsendgeräts 3 spezifiziert einen der Kameraabschnitte 4 basierend auf der Zustandsdatenanforderung. Daraufhin ruft der Bestimmungsabschnitt 32 das durch den Kameraabschnitt 4 aufgenommene aktuel le Bild ab und speichert es im Speicher 32a, ähnlich wie in den in 7 dargestellten Schritten S104 und S105 (Schritt S121). Daraufhin bestimmt der Bestimmungsabschnitt 32 den Zustand der Zielperson, z.B. den Anwesenheits-/Abwesenheitszustand, den Sitzungszustand, den Telefongesprächszustand oder den Sitzungsabsagezustand, vom aktuellen Bild und vom Referenzbild (Schritt S122). Auf diese Weise wiederholt der Bestimmungsabschnitt 32 immer wieder die Schritte S121 und S122. Die vorstehend erwähnten Verfahren (A) bis (D) werden verwendet, um die Zustandsdaten durch die Bildverarbeitung zu bestimmen. Außerdem werden die bestimmten Zustandsdaten im Speicher 32a des Bestimmungsabschnitts 32 gespeichert.
  • Dann empfängt der Anforderungseingangsabschnitt 31 des Kameraverbindungsendgeräts 3 die Zustandsdatenanforderung über das Netzwerk 2 vom Anforderungsquellenendgerät 1 (Schritt S103). Ähnlich wie in Schritt S103 gibt der Anforderungseingangsabschnitt 31 den Namen der ausgewählten Zielperson und ähnliche Information, die in der empfangenen Zustandsdatenanforderung enthalten ist, an den Bestimmungsabschnitt 32 aus und gibt die Adresse des Anforderungsquellenendgeräts 1, die in der empfangenen Zustandsdatenanforderung enthalten ist, an den Ergebnisausgabeabschnitt 33 aus. Der Bestimmungsabschnitt 32 spezifiziert einen der Kameraabschnitte 4. Wenn die Position des spezifizierten Kameraabschnitts 4 auf die ausgewählte Zielperson ausgerichtet ist (JA in Schritt S123), schreitet die Verarbeitung zu Schritt S126 fort. Wenn die Position des spezifizierten Kameraabschnitts 4 nicht auf die ausgewählte Zielperson ausgerichtet ist (Nein in Schritt S128), wird das Bild der Zielperson durch den Kameraabschnitt 3 aufgenommen, und der Bestimmungsabschnitt 32 ruft das Bild als aktuelles Bild ab. Dann bestimmt der Bestimmungsabschnitt 32 den Zustand der Zielperson, z.B. den Anwesenheits-/Abwesenheitszustand, den Sitzungszustand, den Telefongesprächszustand oder den Sitzungsabsagezustand, vom abgerufenen aktuellen Bild durch die Bildverarbei tung. Hierbei werden die vorstehend erwähnten Verfahren (A) bis (D) zum Bestimmen der Zustandsdaten durch die Bildverarbeitung verwendet.
  • Wie vorstehend beschrieben wurde, prüft der Bestimmungsabschnitt 32, ob der Ergebnisausgabeabschnitt 33 die Zustandsdaten nach dem Empfang der Zustandsdatenanforderung mindestens einmal übertragen hat oder nicht (Schritt S124). Wenn festgestellt wird, dass der Ergebnisausgabeabschnitt 33 die Zustandsdaten nicht übertragen hat (Nein in Schritt S124), schreitet die Verarbeitung zu Schritt S126 fort. In Schritt S126 gibt der Bestimmungsabschnitt 32 die Zustandsdaten an den Ergebnisausgabeabschnitt 33 aus. Der Ergebnisausgabeabschnitt speichert die Zustandsdaten zusammen mit den Datum- und Uhrzeitdaten im Speicher 33a. Außerdem überträgt der Ergebnisausgabeabschnitt 33 die Zustandsdaten an das Anforderungsquellenendgerät 1 (Schritt S126). Wenn festgestellt wird, dass der Ergebnisausgabeabschnitt 33 die Zustandsdaten einmal übertragen hat (Ja in Schritt S124), gibt der Bestimmungsabschnitt 32 die bestimmten Zustandsdaten an den Ergebnisausgabeabschnitt 33 aus. Daraufhin schreitet die Verarbeitung zu Schritt S125 fort. Der Ergebnisausgabeabschnitt 33 vergleicht die bestimmten aktuellen Zustandsdaten mit den im Speicher 33a gespeicherten letzten Zustandsdaten. Auf diese Weise wird bestimmt, ob die Zustandsdaten sich geändert haben, z.B. vom Abwesenheitszustand oder vom Sitzungszustand auf den Anwesenheitszustand. Wenn als Ergebnis des Vergleichs keine Übereinstimmung erhalten wird, d.h., wenn die Zustandsdaten sich geändert haben (Ja in Schritt S124), speichert der Ergebnisausgabeabschnitt 33 die bestimmten aktuellen Zustandsdaten zusätzlich zum aktuellen Datum und zur aktuellen Uhrzeit im Speicher 33a und überträgt die aktuellen Zustandsdaten unter Verwendung der Anforderungsquellenadresse an das Anforderungsquellenendgerät 1 (Schritt S126). Daraufhin schreitet die Verarbeitung zu Schritt S127 fort. Wenn dagegen festgestellt wird, dass die Zustandsdaten sich nicht geändert haben (Nein in Schritt S125), schreitet die Verarbeitung zu Schritt S127 fort.
  • Daraufhin bestimmt der Ergebnisausgabeabschnitt 33, ob die Endbedingung erfüllt ist (Schritt S127), wobei die Endbedingung der Änderung der im Speicher 33a gespeicherten Zustandsdaten, dem Ablauf einer vorgegebenen Zeitdauer bzw. dem Empfang des Stoppbefehls vom Benutzer durch den Anforderungseingangsabschnitt 31 entspricht. Wenn die Endbedingung nicht erfüllt ist (Nein in Schritt S109), gibt der Ergebnisausgabeabschnitt 33 Daten, die anzeigen, dass die Endbedingung nicht erfüllt ist, an den Bestimmungsabschnitt 32 aus. Der Bestimmungsabschnitt 32 wiederholt Schritt S104, um Bilddaten vom Kameraabschnitt 4 abzurufen. Wenn die Endbedingung erfüllt ist, wird die Verarbeitung beendet. Die Endbedingung kann durch den Benutzer vor der Übertragung der Zustandsdatenanforderung gesetzt werden, oder die Endbedingung kann bei der Herstellung festgelegt werden. Die Verarbeitung zum Entscheiden, ob die Endbedingung erfüllt ist, ist die gleiche wie vorstehend erwähnt wurde.
  • Dann empfängt das Anforderungsquellenendgerät 1 die über das Netzwerk 2 übertragenen Zustandsdaten (Schritt S110). Die Zustandsdaten werden auf dem Display des Anforderungsquellenendgeräts 1 dargestellt. Auf diese Weise kann sich der Benutzer über den Zustand der ausgewählten Zielperson informieren (Schritt S111). Es stehen verschiedene Darstellungsverfahren zur Verfügung, z.B. ein Verfahren zum Darstellen der Zustandsdaten durch Buchstaben in einem auf einem Display dargestellten Fenster und ein Verfahren zum Darstellen der Zustandsdaten in einem Webbrowser. In der ersten Ausführungsform des Überwachungssystems wird die Zustandsdatendarstellung aktualisiert, wenn die Zustandsdaten sich ändern.
  • In den vorstehend erwähnten Beispielen wird ein Fall betrachtet, in dem sich die Kameraposition des Kameraabschnitts 4 für jede Zielperson ändert. Schritt S123 kann jedoch weggelas sen werden, wenn die Kameraposition fest ist und der Kameraabschnitt ausschließlich für eine Zielperson verwendet wird.
  • In der ersten Ausführungsform des Überwachungssystems können, wenn die Bestimmungsverarbeitung permanent ausgeführt wird und die Kameraposition mit der Zielperson übereinstimmt, die bereits erhaltenen Zustandsdaten zu dem Zeitpunkt übertragen werden, zu dem die Zustandsdatenanforderung empfangen wird. Insbesondere ist es, wenn die Kameraabschnitte 4 derart angeordnet sind, dass sie den Zielpersonen eins zu eins zugeordnet sind, nicht notwendig, auf die Übertragung zu warten, bis die Bestimmungsverarbeitung beendet ist, wodurch die Ansprech- oder Antwortzeit verkürzt werden kann.
  • Die erste Ausführungsform des Überwachungssystems ist nicht auf die vorstehend erwähnten Beispiele beschränkt. Das Überwachungssystem kann auf die Überwachung des Anwesenheits-/Abwesenheitszustands einer Zielperson am Überwachungsort, aber auch zum Überwachen des ein-/ausgeschalteten Zustands einer Beleuchtung, des offenen/geschlossenen Zustands einer Tür, usw. verwendet werden. Dies trifft auch für von der ersten Ausführungsform verschiedene andere Ausführungsformen zu.
  • Beispielsweise wird eine mittlere Helligkeit der Pixel auf einem Bildschirm zum Bestimmen des ein-/ausgeschalteten Zustands einer Beleuchtung berechnet. Der ausgeschaltete Zustand der Beleuchtung wird bestimmt, wenn die mittlere Helligkeit kleiner ist als ein Schwellenwert, und der eingeschaltete Zustand der Beleuchtung wird bestimmt, wenn die mittlere Helligkeit größer ist als der Schwellenwert.
  • Hinsichtlich des offenen/geschlossenen Zustands einer Tür wird ähnlich wie bei der Bestimmung des Telefongesprächszustands ein Türbild (Referenzbild) eines Türbereichs im geschlossenen Zustand der Tür im Speicher 32a des Bestimmungsabschnitts 32 vorgespeichert, und der Bestimmungsabschnitt 32 berechnet den Helligkeitsunterschied zwischen den Pixeln des Türbildes im offenen Zustand der Tür und des Türbildes im ge schlossenen Zustand der Tür. Wenn ein Helligkeitsunterschied vorhanden ist, wird entschieden, dass die Tür offen ist.
  • In der ersten Ausführungsform des Überwachungssystems wird die Zustandsdatenanforderung durch Verfahren eingegeben, wie beispielsweise durch Zeigen auf einen auf einem Bildschirm dargestellten Icon durch eine Zeigereinrichtung und ein Verfahren zum Eingeben einer Adresse oder eines Zielpersonennamens zusammen mit einem Zustandsdatenabrufbefehl über eine Tastatur. Das gleiche trifft auch auf von der ersten Ausführungsform verschiedene andere Ausführungsformen zu.
  • Die erste Ausführungsform des Überwachungssystems ist nicht auf ein System beschränkt, in dem der Kameraabschnitt 4 und das Kameraverbindungsendgerät 3 direkt miteinander verbunden sind, sondern der Kameraabschnitt 4 und das Kameraverbindungsendgerät 3 können über das Netzwerk 2 miteinander verbunden sein. Außerdem ist die erste Ausführungsform des Überwachungssystems nicht auf die Verwendung des Kameraverbindungsendgeräts 3 beschränkt, sondern es kann ein Server verwendet werden. Das gleiche trifft auch auf von der ersten Ausführungsform verschiedene andere Ausführungsformen zu.
  • Gemäß der vorstehenden Beschreibung wird in der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems eine Bildverarbeitung für das abgerufene Bild ausgeführt und das Ergebnis wird dem Benutzer als Zustandsdaten mitgeteilt. Dadurch kann der Benutzer zum Prüfen des Zustands einer Zielperson Zeit beim Ausführen der Bestimmungsverarbeitung einsparen.
  • In der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems wird der Anwesenheits-/Abwesenheitszustand durch eine Bildverarbeitung des abgerufenen Bildes erkannt, und der Anwesenheits-/Abwesenheitszustand wird dem Benutzer über das Netzwerk mitgeteilt, wenn sich der Anwesenheits-/Abwesenheitszustand ändert. Dadurch kann der Benutzer bei der Bestimmung des Anwesenheits-/Abwesenheitszustands vom dargestellten Bild Zeit einsparen.
  • Außerdem kann gemäß der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems eine Zielperson durch die Bildverarbeitung des erhaltenen Bildes überwacht werden, und die Tätigkeit der Zielperson wird dem Benutzer über das Netzwerk mitgeteilt, wenn sich die Tätigkeit der Zielperson ändert. Dadurch kann der Benutzer bei der Bestimmung des Tätigkeitszustands der Zielperson vom dargestellten Bild Zeit einsparen.
  • Außerdem wird gemäß der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems das abgerufene Bild nicht dargestellt, sondern es werden lediglich Zustandsdaten für den Benutzer dargestellt. Dadurch kann die Gefahr einer Verletzung der Privatsphäre der Zielperson verhindert werden.
  • Außerdem können gemäß der ersten Ausführungsform des erfindungsgemäßen Überwachungssystems die Zustandsdaten und Statistikdaten, wie beispielsweise ein Prozentanteil des Anwesenheitszustands, ein Prozentanteil des Abwesenheitszustands, ein Gedränge- oder Dichtegrad und ein Gedrängeort, bereitgestellt und für das Management eines Geschäfts und der Angestellten verwendet werden.
  • Zweite Ausführungsform
  • Die zweite Ausführungsform des Überwachungssystems weist zusätzlich zur Struktur der ersten Ausführungsform einen Server zum Speichern der Zustandsdaten auf. Weil der Benutzer die Zustandsdaten vom Server abruft, können zusätzlich zur Arbeitsweise und Wirkung der ersten Ausführungsform die Zustandsdaten durch einen allgemeinen Webbrowser und einen Mailer bestätigt werden.
  • Nachstehend wird die zweite Ausführungsform des Überwachungssystems unter Bezug auf 3 beschrieben. 3 zeigt ein Blockdiagramm zum Darstellen der Struktur der zweiten Ausführungsform des erfindungsgemäßen Überwachungssystems. In der Struktur der zweiten Ausführungsform des Überwachungssystems bezeichnen die gleichen Bezugszeichen die gleichen Komponenten wie in der ersten Ausführungsform. Nachstehend wird die Arbeitsweise eines in der zweiten Ausführungsform des Überwachungssystems hinzugefügten Servers beschrieben. Die Verarbeitungen, die denjenigen der ersten Ausführungsform gleichen, werden nicht näher beschrieben werden.
  • Gemäß 3 besteht die zweite Ausführungsform des Überwachungssystems aus einem Anforderungsquellenendgerät 1 auf der Seite eines Benutzers, einem Netzwerk 2, z.B. dem Internet, einem Intranet, usw., einem Kameraabschnitt 4 zum Aufnehmen eines Bildes eines vorgegebenen Bereichs, einem mit dem Kameraabschnitt 4 verbundenen Kameraverbindungsendgerät 3 und einem Server 5, der einen Webserver, einen Mailserver, usw. aufweist. Der Server 5 und das Kameraverbindungsendgerät 3 sind direkt oder über das Netzwerk 2 verbunden. Das Netzwerk 2 verbindet das Anforderungsquellenendgerät 1 mit dem Kameraverbindungsendgerät 3. Das Kameraverbindungsendgerät 3 kann ein auf einem Speichermedium 8 gespeichertes Programm ausführen. Außerdem kann das Kameraverbindungsendgerät 3 mit mehreren Kameraabschnitten 4 oder mit nur einem Kameraabschnitt 4 verbunden sein.
  • Das Anforderungsquellenendgerät 1 erzeugt eine Zustandsdatenanforderung zum Prüfen des Anwesenheits-/Abwesenheitszustands einer Zielperson in einem vorgegebenen Bereich und überträgt die Zustandsdatenanforderung über das Netzwerk 2 an das Kameraverbindungsendgerät 3. Die Zustandsdatenanforderung enthält eine Adresse des mit der Zielperson in Beziehung stehenden Servers 5. Das Kameraverbindungsendgerät 3 bestimmt den Zustand der Zielperson im durch den Kameraabschnitt 4 aufgenommenen vorgegebenen Bereich in Antwort auf den Empfang der Zustandsdatenanforderung und erzeugt die das Bestimmungsergebnis anzeigenden Zustandsdaten. Das Kameraverbindungsendgerät 3 überträgt die das Bestimmungsergebnis anzeigenden Zustandsdaten über das Netzwerk 2 an den Server 5 im Website-Datenformat oder im E-Mail-Format. Das Anforderungsquellenendgerät 1 nimmt über das Netzwerk 2 Bezug auf den Server 5 und ruft die Zustandsdaten ab und stellt sie für den Benutzer dar. Auf diese Weise kann sich der Benutzer über den Zustand der Zielperson informieren.
  • Der Kameraverbindungsabschnitt 3 besteht aus einem Anforderungseingangsabschnitt 31, einem Bestimmungsabschnitt 32 und einem Ergebnisausgabeabschnitt 33.
  • Der Anforderungseingangsabschnitt 31 empfängt die vom Anforderungsquellenendgerät 1 übertragene Zustandsdatenanforderung und gibt sie in Antwort auf den Empfang der Zustandsdatenanforderung an den Bestimmungsabschnitt 32 und den Ergebnisausgabeabschnitt 33 aus. Der Anforderungseingangsabschnitt 31 gibt die Serveradresse der Zielperson an den Ergebnisausgabeabschnitt 33 aus. Die Komponenten und Verarbeitungen oder Operationen sind mit Ausnahme der vorstehend erwähnten Komponenten und Verarbeitungen oder Operationen die gleichen wie bei der ersten Ausführungsform.
  • Der Bestimmungsabschnitt 32 weist ähnlich wie in der ersten Ausführungsform einen Speicher 32a auf und speichert das durch den Kameraabschnitt 4 aufgenommene Bild im Speicher 32a. Auf diese Weise werden im Speicher 32a ein zuvor zu einem vorgegebenen Zeitpunkt durch den Kameraabschnitt 4 aufgenommenes Bild als Referenzbild und ein durch den Kameraabschnitt 4 zu einem vom vorgegebenen Zeitpunkt verschiedenen Zeitpunkt, z.B. zum aktuellen Zeitpunkt, aufgenommenes Bild als Vergleichsbild (aktuelles Bild) gespeichert. Der Bestimmungsabschnitt 32 vergleicht das Referenzbild mit dem Vergleichsbild, bestimmt den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich und erzeugt das Ergebnis der Bestimmung anzeigende Bestimmungsergebnisdaten. Der Bestimmungsabschnitt 32 führt eine Bestimmungsverarbeitung zum Bestimmen des Anwesenheits-/Abwesenheitszustand der Zielperson von den Bilddaten wiederholt aus. Diese Bestimmungsverarbeitung wird unabhängig von der Zustandsdatenanforderung ausgeführt. Um Leistung einzusparen, kann die Verarbeitung gestartet werden, wenn der Anforderungseingangsabschnitt 31 die Zustandsdatenanforderung empfängt, und beendet werden, wenn die Endbedingung erfüllt ist, z.B. die in Verbindung mit der ersten Ausführungsform beschriebene Endbedingung. Das durch den Bestimmungsabschnitt 32 ausgeführte Bildverarbeitungsverfahren ist das gleiche wie in der ersten Ausführungsform.
  • Der Ergebnisausgabeabschnitt 33 weist einen Zeitgeber (nicht dargestellt) und den Speicher 33a auf und speichert die vom Bestimmungsabschnitt 32 übertragenen Bestimmungsergebnisdaten zusammen und die Datum- und Uhrzeitdaten im Speicher 33a. Außerdem überträgt der Ergebnisausgabeabschnitt 33 die aktuellen Zustanddaten und die Datum- und Uhrzeitdaten basierend auf der Serveradresse der Zielperson über das Netzwerk 2 an den Server 5. Der Ergebnisausgabeabschnitt 33 kann zusätzlich zu den Zustandsdaten auch die aktuellen Bilddaten an den Server 5 übertragen. Der Ergebnisausgabeabschnitt 33 kann die Ausgabeverarbeitung zum Ausgeben der aktuellen Zustandsdaten und der Datum- und Uhrzeitdaten auch ausführen, wenn die bestimmten Zustandsdaten sich bezüglich den vorangehenden Zustandsdaten ändern. Die Ausgabeverarbeitung kann permanent ausgeführt werden. Außerdem kann die Ausgabeverarbeitung gestartet werden, wenn die Zustandsdatenanforderung vom Anforderungseingangsabschnitt 31 empfangen wird, und beendet werden, wenn die Endbedingung erfüllt ist, z.B. die in Verbindung mit der ersten Ausführungsform beschriebene Endbedingung.
  • Die Speicherung der Zustandsdaten im Server 5 kann ausgeführt werden, um die Zustandsdaten auf dem Server 5 zu aktualisieren, und es kann ein Zustandsdatensatz akkumuliert werden.
  • Dadurch kann die Ausführungsform des Überwachungssystems zusätzlich zur Verarbeitung und Wirkung der ersten Ausführungsform die Zustandsdaten durch einen allgemeinen Webbrowser und einen Mailer bestätigen.
  • Nachstehend wird die Verarbeitung der zweiten Ausführungsform des Überwachungssystems unter Bezug auf die 9A und 9B beschrieben. 9A zeigt ein Ablaufdiagramm zum Darstellen der Verarbeitung des Kameraverbindungsendgeräts, wenn das Übertragungsformat in der zweiten Ausführungsform des Überwachungssystems das Website-Datenformat ist. 9B zeigt ein Ablaufdiagramm zum Darstellen der Verarbeitung des Anforderungsquellenendgeräts, wenn das Übertragungsformat in der zweiten Ausführungsform des Überwachungssystems das Website-Datenformat ist.
  • Zunächst wird unter Bezug auf die 9A und 9B die Verarbeitung beschrieben, wenn das Übertragungsformat das Website-Datenformat ist.
  • Wie in 9A dargestellt ist, erfasst der Bestimmungsabschnitt 32 des Kameraverbindungsendgeräts 3 ähnlich wie in der ersten Ausführungsform das durch den Kameraabschnitt 4 aufgenommene Bild (Schritt S205). Der Bestimmungsabschnitt 32 bestimmt den Zustand der Zielperson, z.B. den Anwesenheits-/Abwesenheitszustand, den Sitzungszustand, den Telefongesprächszustand, den Sitzungsabsagezustand, usw. und erzeugt die aktuellen Zustandsdaten (Schritt S206). Zum Bestimmen der Zustandsdaten durch die Bildverarbeitung wird eines der vorstehend erwähnten Bildverarbeitungsverfahren (A) bis (D) verwendet.
  • Der Ergebnisausgabeabschnitt 33 vergleicht die vorangehenden Zustandsdaten mit den aktuellen Zustandsdaten und bestimmt, ob die aktuellen Zustandsdaten sich von den vorangehenden Zustandsdaten unterscheiden oder nicht (Schritt S207). Der Ergebnisausgabeabschnitt 33 überträgt den aktuellen Zustandsdatensatz an den Server 5 (Schritt S208), wenn als Ergebnis des Vergleichs keine Übereinstimmung erhalten wird, d.h. wenn sich der Zustand geändert hat (Ja in Schritt S207). Dadurch werden die Zustandsdaten, die in dem der Zielperson zugeordneten Bereich auf dem Server 5 gespeichert sind, aktualisiert. Oder die Zu standsdaten können in einer zeitlichen Folge gespeichert werden (Schritt S209). Der Satz der aktuellen Zustandsdaten und der Datum- und Uhrzeitdaten wird auch im Speicher 33a gespeichert. Daraufhin wiederholt das Kameraverbindungsendgerät 3 die Schritte S205 bis S209.
  • Wie in 9B dargestellt ist, gibt der Benutzer die Zustandsdatenanforderung in das Anforderungsquellenendgerät 1 ein, wenn er sich über den Anwesenheitszustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S201). Das Eingabeverfahren ist das gleiche wie in der ersten Ausführungsform. Die Zustandsdatenanforderung vom Anforderungsquellenendgerät 3 enthält zusätzlich zur Adresse des Servers 5 und der mit der Zielperson in Beziehung stehenden Serveradresse wie in der ersten Ausführungsform die Adresse des Kameraabschnitts 4, Identifizierungsdaten der Zielperson, usw. Das Anforderungsquellenendgerät 1 überträgt die Zustandsdatenanforderung über das Netzwerk 2 an den Server 5. Auf diese Weise werden die den Zustandsdaten der ausgewählten Zielperson entsprechenden Website-Daten vom Server 5 abgerufen (Schritt S202). Das Anforderungsquellenendgerät 1 stellt den Anwesenheits-/Abwesenheitszustand durch Darstellen der vom Server 5 abgerufenen Website-Daten für den Benutzer auf dem Browser dar (Schritt S203). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform. Daraufhin bestimmt das Anforderungsquellenendgerät 1, ob die Endbedingung erfüllt ist oder nicht, unter Verwendung der Endbedingung und des Bestimmungsverfahrens, die in Verbindung mit der ersten Ausführungsform beschrieben worden sind (Schritt S204). Wenn die Endbedingung nicht erfüllt ist (Nein in Schritt S204), wiederholt das Anforderungsquellenendgerät 1 die Schritte S202 bis S204.
  • Nachstehend wird unter Bezug auf 10 die Verarbeitung für den Fall beschrieben, dass das Übertragungsformat das Mail-Format ist.
  • Gemäß 10 gibt der Benutzer die Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über den Anwesenheitszustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S201). Das Eingabeverfahren ist das gleiche wie in der ersten Ausführungsform. Die Zustandsdatenanforderung vom Anforderungsquellenendgerät 1 enthält zusätzlich zur Adresse des Servers und einer Mailadresse des mit der Zielperson in Beziehung stehenden Servers wie in der ersten Ausführungsform die Adresse des Kameraverbindungsendgeräts 3, die Adresse des Kameraabschnitts 4, Identifizierungsdaten der Zielperson, usw. Das Anforderungsquellenendgerät 1 überträgt die Zustandsdatenanforderung über das Netzwerk 2 an das Kameraverbindungsendgerät 3 und den Server 5 (Schritt S211). Die Zustandsdatenanforderung wird durch das Kameraverbindungsendgerät 3 mit der über das Netzwerk 2 vom Verbindungsanforderungsendgerät 1 spezifizierten Adresse empfangen (Schritt S212).
  • Dann empfängt der Anforderungseingangsabschnitt 31 des Kameraverbindungsendgeräts 3 ähnlich wie in der ersten Ausführungsform die Zustandsdatenanforderung, und der Bestimmungsabschnitt 32 des Kameraverbindungsendgeräts 3 ruft das durch den Kameraabschnitt 4 aufgenommene Bild ab (Schritt S205). Der Bestimmungsabschnitt 32 bestimmt den Zustand der Zielperson, z.B. den Anwesenheits/Abwesenheitszustand, den Sitzungszustand, den Telefongesprächszustand und den Sitzungsabsagezustand, und der Bestimmungsabschnitt 32 erzeugt die aktuellen Zustandsdaten (Schritt S206). Für die Bestimmung der Zustandsdaten durch die Bilderverarbeitung wird eines der vorstehend erwähnten Bildverarbeitungsverfahren (A) bis (D) verwendet.
  • Der Ergebnisausgabeabschnitt 33 vergleicht die vorangehenden Zustandsdaten und die aktuellen Zustandsdaten und bestimmt, ob die aktuellen Zustandsdaten sich von den vorangehenden Zustandsdaten unterscheiden oder nicht (Schritt S207). Der Ergebnisausgabeabschnitt 33 überträgt den aktuellen Zustandsdaten satz an die Mail-Adresse des der Zielperson zugeordneten Servers 5, wenn durch das Vergleichsergebnis keine Übereinstimmung erhalten wird, d.h., wenn die Zustandsdaten sich geändert haben (Ja in Schritt S207) (Schritt S208). Dadurch werden die Zustandsdaten, die auf dem Server 5 gespeichert worden sind, aktualisiert. Oder die Zustandsdaten können in einer zeitlichen Folge gespeichert werden (Schritt S209). Der aktuelle Zustandsdatensatz wird auch im Speicher 33a gespeichert. Daraufhin bestimmt das Kameraverbindungsendgerät 3 unter Verwendung der Endbedingung und des Bestimmungsverfahrens der ersten Ausführungsform, ob die Endbedingung erfüllt ist (Schritt S213). Wenn die Endbedingung erfüllt ist (Nein in Schritt S213), wiederholt der Kameraverbindungsabschnitt 3 die Schritte S205 bis S209.
  • Der Grund, warum die Ausgabeoperation basierend auf der Endbedingung beendet wird, ist, dass viele E-Mails im Fall eines E-Mail-Formats als Ausgangsübertragungsformat vermieden werden, wenn die Bestimmung des Anwesenheits-/Abwesenheitszustands wiederholt wird, weil die Zielperson den abgebildeten Ort betritt und verlässt, oder wenn der Zustand der Zielperson sich z.B. nacheinander vom Abwesenheitszustand auf den Anwesenheitszustand, den Sitzungszustand, den Anwesenheitszustand und den Telefongesprächszustand ändert.
  • Außerdem ruft das Anforderungsquellenendgerät 1 die Website-Daten für die zu schreibenden Zustandsdaten vom Server 5 mit der der ausgewählten Zielperson entsprechenden Adresse über das Netzwerk 2 ab (Schritt S202). Das Anforderungsquellenendgerät 1 stellt die aktuellen Zustandsdaten auf dem Display dar, indem die vom Server 5 abgerufenen Website-Daten für den Benutzer auf dem Browser dargestellt werden (Schritt S203). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform.
  • Auf diese Weise speichert die zweite Ausführungsform des Überwachungssystems die Zustandsdaten im Server, und der Benutzer ruft die Zustandsdaten vom Server ab. Dadurch sind weder ein Endgerät noch eine Anwendung für eine exklusive Verwendung für diesen Zweck erforderlich. Die Zustandsdaten können durch den allgemeinen Webbrowser und einen Mailer bestätigt werden.
  • Die zweite Ausführungsform des Überwachungssystems ist nicht auf das vorstehend beschriebene System beschränkt. Die zweite Ausführungsform des Überwachungssystems kann außer zum Überwachen des Anwesenheitszustands der Zielperson am Überwachungsort auch für die Zustandsbestimmung des Überwachungsorts verwendet werden. Beispielsweise kann die Zustandsbestimmung des Überwachungsortes auf den ein-/ausgeschalteten Zustand einer Beleuchtung, den offenen/geschlossenen Zustand einer Tür, usw. angewendet werden.
  • Dritte Ausführungsform
  • In der dritten Ausführungsform des Überwachungssystems wird zusätzlich zu den Wirkungen der ersten Ausführungsform erreicht, dass die Rechenlast der Bestimmungsverarbeitung auf die jeweiligen Endgeräte verteilt werden kann, so dass die Bestimmungsverarbeitungen in den Endgeräten der Benutzer ausgeführt werden, wenn mehrere Zustandsdatenanforderungen gleichzeitig erzeugt werden. 4 zeigt ein Blockdiagramm zum Darstellen der Struktur der dritten Ausführungsform des erfindungsgemäßen Überwachungssystems. Nachstehend wird die dritte Ausführungsform des Überwachungssystems unter Bezug auf 4 beschrieben.
  • Gemäß 4 besteht die dritte Ausführungsform des Überwachungssystems aus einem als Anforderungsquelle dienenden Anforderungsquellenendgerät 1 auf der Seite eines Benutzers, einem Netzwerk 2, z.B. dem Internet, einem Intranet, usw., und dem Kameraabschnitt 4 zum Aufnehmen eines Bildes eines vorgegebenen Bereichs. Das Netzwerk 2 verbindet das Anforderungsquellenendgerät 1 mit dem Kameraabschnitt 4. Das Anforderungsquellenendgerät 1 kann das auf einem Aufzeichnungsmedium 8 aufgezeichnete Programm ausführen.
  • Zum Prüfen des Anwesenheits-/Abwesenheitszustands der Zielperson im vorgegebenen Bereich bestimmt das Anforderungsquellenendgerät 1 den Zustand der Zielperson basierend auf dem Bild des durch den Kameraabschnitt 4 aufgenommenen vorgegebenen Bereichs in Antwort auf die Eingabe der Zustandsdatenanforderung, erzeugt die Zustandsdaten, die das Ergebnis der Bestimmung anzeigen, und stellt sie für den Benutzer dar. Auf diese Weise kann sich der Benutzer über den Zustand der Zielperson informieren. Daher fordert der Benutzer nur dann die Zustandsdaten vom Anforderungsquellenendgerät 1 an, wenn er sich über den Zustand der Zielperson am Überwachungsort des Kameraabschnitts 4 informieren möchte, wobei der Anwesenheits-/Abwesenheitszustand durch das Anforderungsquellenendgerät 1 dargestellt werden kann.
  • Das Anforderungsquellenendgerät 1 besteht aus einem Anforderungseingangsabschnitt 11, einem Bestimmungsabschnitt 12 und einem Ergebnisausgabeabschnitt 13.
  • Der Anforderungseingangsabschnitt 11 empfängt wie in der ersten Ausführungsform die Zustandsdatenanforderung vom Benutzer und gibt sie an den Bestimmungsabschnitt 12 und den Ergebnisausgabeabschnitt 13 aus.
  • Der Bestimmungsabschnitt 12 weist einen Speicher 12a auf. Der Bestimmungsabschnitt 12 gibt in Antwort auf die Zustandsdatenanforderung vom Anforderungseingangsabschnitt 11 über das Netzwerk 2 einen Antriebsbefehl an den Kameraabschnitt 4 aus. Der Antriebsbefehl enthält die Adresse des Kameraabschnitts 4, die Identifizierungsdaten und die Positionsdaten der Zielperson und die Adresse des Bestimmungsabschnitts 12. Der durch den Antriebsbefehl spezifizierte Kameraabschnitt 4 nimmt das aktuelle Bild der Zielperson basierend auf den Identifizierungsdaten und den Positionsdaten auf, und das aufgenommene aktuelle Bild wird unter Verwendung der Adresse des Bestimmungsabschnitts 12 an den Bestimmungsabschnitt 12 übertragen. Der Bestimmungsabschnitt 12 speichert das empfangene aktuelle Bild ähnlich wie in der ersten Ausführungsform in dem der Zielperson zugeordneten Bereich des Speichers 12a. Auf diese Weise werden im Speicher 12a das durch den Kameraabschnitt 4 zu einem vorgegebenen Zeitpunkt zuvor aufgenommene Bild als Referenzbild und das durch den Kameraabschnitt 4 zu einem vom vorgegebenen Zeitpunkt verschiedenen Zeitpunkt, d.h. zu einem aktuellen Zeitpunkt, aufgenommene aktuelle Bild als Vergleichsbild (aktuelles Bild) gespeichert. Der Bestimmungsabschnitt 12 vergleicht das Referenzbild bezüglich des durch die Bereichsspezifizierungsdaten spezifizierten Bereichs mit dem Vergleichsbild, bestimmt den Anwesenheits-/Abwesenheitszustand der Zielperson in vorgegebenen Bereich und erzeugt die Zustandsdaten. Der Bestimmungsabschnitt 12 führt die Bestimmungsverarbeitung wiederholt aus, um den Zustand vom abgerufenen aktuellen Bild und vom Referenzbild zu bestimmen. Das durch den Bestimmungsabschnitt 12 ausgeführte Bildverarbeitungsverfahren ist das gleiche wie in der ersten Ausführungsform. Um Leistung einzusparen, kann die Bestimmungsverarbeitung in Antwort auf die Zufuhr der Zustandsdatenanforderung zum Anforderungseingangsabschnitt 11 aktiviert und deaktiviert werden, wenn eine Endbedingung erfüllt ist, z.B. die in Verbindung mit der ersten Ausführungsform beschriebene Endbedingung.
  • Der Ergebnisausgabeabschnitt 13 weist einen (nicht dargestellten) Zeitgeber und einen Speicher 13 auf und speichert die vom Bestimmungsabschnitt 12 übertragenen Zustandsdaten als die aktuellen Zustandsdaten zusammen mit Datum- und Uhrzeitdaten im der Zielperson entsprechenden Bereich des Speichers 13a. Daraufhin stellt der Ergebnisausgabeabschnitt 13 die aktuellen Zustandsdaten für den Benutzer dar. Der Ergebnisausgabeabschnitt 13 kann zusätzlich zu den Zustandsdaten und den Datum- und Uhrzeitdaten auch die aktuellen Bilddaten im Speicher 13a speichern. Außerdem kann der Ergebnisausgabeabschnitt 13 die Ausgabeverarbeitung zum Ausgeben des aktuellen Zustandsdatensatzes ausführen, wenn die bestimmten aktuellen Zustandsdaten sich be züglich der vorangehenden Zustandsdaten geändert haben. Die Ausgabeverarbeitung kann permanent ausgeführt werden oder kann aktiviert werden, wenn die Zustandsdatenanforderung durch den Anforderungseingangsabschnitt 31 empfangen wird, und deaktiviert werden, wenn die Endbedingung erfüllt ist, z.B. die in Verbindung mit der ersten Ausführungsform beschriebene Endbedingung.
  • Auf diese Weise kann durch die dritte Ausführungsform des Überwachungssystems zusätzlich zu den Wirkungen der ersten Ausführungsform erreicht werden, dass die Rechenlast der Bestimmungsverarbeitung auf die jeweiligen Endgeräte verteilt wird, wenn die mehreren Zustandsdatenanforderungen gleichzeitig erzeugt werden.
  • Nachstehend wird unter Bezug auf 11 die Arbeitsweise oder Verarbeitung der dritten Ausführungsform des Überwachungssystems beschrieben. 11 zeigt ein Ablaufdiagramm zum Darstellen einer Verarbeitung, die ausgeführt wird, wenn die Bestimmungsverarbeitung in Antwort auf die Zufuhr der Zustandsdatenanforderung in der dritten Ausführungsform des erfindungsgemäßen Überwachungssystems ausgeführt wird. Nachstehend wird unter Bezug auf 11 die Verarbeitung beschrieben, gemäß der die Bestimmungsverarbeitung ausgeführt wird, nachdem die Zustandsdatenanforderung zugeführt wurde.
  • Wie in 11 dargestellt ist, gibt der Benutzer die Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über den Anwesenheitszustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S301). Das Eingabeverfahren ist das gleiche wie in der ersten Ausführungsform. Der Anforderungseingangsabschnitt 11 gibt die Zustandsdatenanforderung an den Bestimmungsabschnitt 12 und den Ergebnisausgabeabschnitt 13 aus.
  • Der Bestimmungsabschnitt 12 gibt in Antwort auf die Zustandsdatenanforderung einen Antriebsbefehl an den Kameraabschnitt 4 aus. In Antwort auf den Antriebsbefehl nimmt der Ka meraabschnitt 4 eine spezifizierte Zielperson als Bild auf und überträgt das aufgenommene aktuelle Bild über das Netzwerk 2 an den Bestimmungsabschnitt 12. Auf diese Weise wird das aktuelle Bild durch den Bestimmungsabschnitt erhalten (Schritt S302).
  • Dann bestimmt der Bestimmungsabschnitt 12 den Zustand der Zielperson, z.B. den Anwesenheits-/Abwesenheitszustand, den Sitzungszustand, den Telefongesprächszustand und den Sitzungsabsagezustand, vom aktuellen Bild und vom Referenzbild bezüglich des durch die Bereichspezifizierungsdaten spezifizierten Bereichs unter Verwendung der Bildverarbeitung und erzeugt die Zustandsdaten (Schritt S303). Hierbei wird eines der vorstehend erwähnten Bildverarbeitungsverfahren (A) bis (D) für die Bildverarbeitung verwendet.
  • Der Bestimmungsabschnitt 12 prüft, ob der Ergebnisausgabeabschnitt 13 die Zustandsdaten nach der Zufuhr der Zustandsdatenanforderung mindestens einmal ausgegeben hat (Schritt S304). Wenn entschieden wird, dass die Zustandsdaten nicht ausgegeben worden sind (Nein in Schritt S304), schreitet die Verarbeitung zu Schritt S306 fort. Der Bestimmungsabschnitt 12 gibt die aktuellen Zustandsdaten an den Ergebnisausgabeabschnitt 13 aus. Der Ergebnisausgabeabschnitt 13 speichert die aktuellen Zustandsdaten im Speicher 13a und stellt sie für den Benutzer dar (Schritt S306). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform. Wenn entschieden wird, dass die Zustandsdaten bereits ausgegeben worden sind (Ja in Schritt S304), schreitet die Verarbeitung zu Schritt S305 fort. In Schritt S305 bestimmt der Ergebnisausgabeabschnitt 13, ob die aktuellen Zustandsdaten sich bezüglich den vorangehenden Zustandsdaten geändert haben. Zu diesem Zweck vergleicht der Ergebnisausgabeabschnitt 13 die aktuellen Zustandsdaten mit den im Speicher 13a gespeicherten vorangehenden Zustandsdaten (Schritt S305). Der Ergebnisausgabeabschnitt 13 stellt die aktuellen Zustandsdaten für den Benutzer dar (Schritt S306), wenn als Ergebnis des Vergleichs keine Übereinstimmung festgestellt wird, d.h., wenn sich die Zustandsdaten geändert haben (Ja in Schritt S305). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform.
  • Daraufhin bestimmt der Ergebnisausgabeabschnitt 13, ob die Endbedingung erfüllt ist oder nicht, unter Verwendung der Endbedingung und der Bestimmungsverarbeitung, die in Verbindung mit der ersten Ausführungsform beschrieben worden sind (Schritt S307). Wenn die Endbedingung nicht erfüllt ist (Nein in Schritt S307), wiederholt der Ergebnisausgabeabschnitt 13 die Schritte S302 bis S307.
  • Nachstehend wird unter Bezug auf 12 ein Fall beschrieben, gemäß dem die Bestimmungsverarbeitung permanent ausgeführt wird.
  • Wie in 12 dargestellt ist, gibt der Benutzer die Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über den Anwesenheitszustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S301). Das Eingabeverfahren ist das gleiche wie in der ersten Ausführungsform. Der Anforderungseingangsabschnitt 11 gibt die Zustandsdatenanforderung an den Bestimmungsabschnitt 12 und den Ergebnisausgabeabschnitt 13 aus.
  • Der Bestimmungsabschnitt 12 gibt in Antwort auf die Zustandsdatenanforderung einen Antriebsbefehl an den Kameraabschnitt 4 aus. In Antwort auf den Antriebsbefehl bestimmt der Kameraabschnitt 4, ob der Kameraabschnitt auf die durch den Antriebsbefehl spezifizierte Zielperson ausgerichtet ist oder nicht. Wenn der Kameraabschnitt nicht auf die Zielperson ausgerichtet ist, wird die Position des Kameraabschnitts 4 derart geändert, dass er auf die durch den Antriebsbefehl spezifizierte Zielperson ausgerichtet wird, und der Kameraabschnitt nimmt die spezifizierte Zielperson als Bild auf und überträgt das Bild über das Netzwerk 2 an den Bestimmungsabschnitt 12. Auf diese Weise erhält der Bestimmungsabschnitt 12 das aktuelle Bild (Schritt S311). Der Bestimmungsabschnitt 12 bestimmt die Zustandsdaten der Zielperson, z.B. den Anwesenheits-/Abwesenheitszustand, den Sitzungszustand, den Telefongesprächszustand und den Sitzungsabsagezustand (Schritt S312). Daraufhin wiederholt der Bestimmungsabschnitt die Schritte S311 und S312. Hierbei wird eines der vorstehend erwähnten Bildverarbeitungsverfahren (A) bis (D) für die Bestimmung der Zustandsdaten durch die Bildverarbeitung verwendet. Außerdem werden die aktuellen Zustandsdaten im Speicher 12a des Bestimmungsabschnitts 12 gespeichert.
  • Dann prüft der Bestimmungsabschnitt 12 wie in der ersten Ausführungsform, ob der Ergebnisausgabeabschnitt 13 die Zustandsdaten nach der Zufuhr der Zustandsdatenanforderung mindestens einmal ausgegeben hat (Schritt S304). Wenn entschieden wird, dass die Zustandsdaten nicht ausgegeben worden sind (Nein in Schritt S304), schreitet die Verarbeitung zu Schritt S306 fort. Der Bestimmungsabschnitt 12 gibt die aktuellen Zustandsdaten an den Ergebnisausgabeabschnitt 13 aus. Der Ergebnisausgabeabschnitt 13 speichert die aktuellen Zustandsdaten zusammen mit den Datum- und Uhrzeitdaten im Speicher 13a und stellt sie für den Benutzer dar (Schritt S306). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform. Wenn entschieden wird, dass die Zustandsdaten bereits ausgegeben worden sind (Ja in Schritt S304), schreitet die Verarbeitung zu Schritt S305 fort. In Schritt S305 bestimmt der Ergebnisausgabeabschnitt 13, ob die aktuellen Zustandsdaten sich von den vorangehenden Zustandsdaten unterscheiden oder nicht. Zu diesem Zweck vergleicht der Ergebnisausgabeabschnitt 13 die aktuellen Zustandsdaten mit den im Speicher 13a gespeicherten vorangehenden Zustandsdaten (Schritt S305). Der Ergebnisausgabeabschnitt 13 stellt die aktuellen Zustandsdaten für den Benutzer dar, wenn als Ergebnis des Vergleichs keine Übereinstimmung festgestellt wird, d.h., wenn sich die Zustandsdaten geändert haben (Ja in Schritt S305) (Schritt S306). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform.
  • Daraufhin bestimmt der Ergebnisausgabeabschnitt 13, ob die Endbedingung erfüllt ist oder nicht, unter Verwendung der Endbedingung und der Bestimmungsverarbeitung, die in Verbindung mit der ersten Ausführungsform beschrieben worden sind (Schritt S307). Wenn die Endbedingung nicht erfüllt ist (Nein in Schritt S307), wiederholt der Ergebnisausgabeabschnitt 13 die Schritte S302 bis S307.
  • Daher kann die dritte Ausführungsform des Überwachungssystems die Rechenlast der Bestimmungsverarbeitung auf die jeweiligen Endgeräte verteilen, wenn mehrere Zustandsdatenanforderungen gleichzeitig erzeugt werden, weil die jeweiligen Endgerate der Benutzer die Bestimmungsverarbeitungen zum Bestimmen des aktuellen Zustands ausführen.
  • Die dritte Ausführungsform des Überwachungssystems ist nicht auf das vorstehend beschriebene System beschränkt. Zusätzlich zum Anwesenheitszustand der Zielperson am Überwachungsort kann auch der Zustand des Überwachungsortes bestimmt werden. Beispielsweise kann die Zustandsüberwachung des Überwachungsortes auf den ein-/ausgeschalteten Zustand einer Beleuchtung, den offenen/geschlossenen Zustand einer Tür, usw. angewendet werden.
  • Vierte Ausführungsform
  • In der vierten Ausführungsform des Überwachungssystems ist das Kameraverbindungsendgerät in einem Server mit der Struktur der zweiten Ausführungsform angeordnet. Der Benutzer kann Zustandsdaten vom Server 5 abrufen und die Zustandsdaten unter Verwendung eines allgemeinen Webbrowsers und eines Mailers bestätigen. 5 zeigt ein Blockdiagramm zum Darstellen der Struktur der vierten Ausführungsform des erfindungsgemäßen Überwachungssystems. Die vierte Ausführungsform des Überwachungssystems wird nachstehend unter Bezug auf 5 beschrieben. In der Struktur der vierten Ausführungsform des Überwa chungssystems bezeichnet die gleichen Bezugszeichen wie in der ersten Ausführungsform die gleichen Komponenten.
  • Wie in 5 dargestellt ist, weist die vierte Ausführungsform des Überwachungssystems ein Anforderungsquellenendgerät 1 als Anforderungsquelle, ein Netzwerk 2, z.B. das Internet, ein Intranet, usw., einen Kameraabschnitt 4 zum Aufnehmen eines vorgegebenen Bereichs als Bild, und einen mit dem Kameraabschnitt 4 verbundenen Server 5 auf. Das Netzwerk 2 verbindet das Anforderungsquellenendgerät 1 mit dem Server 5. Außerdem kann der Server 5 ein auf einem Aufzeichnungsmedium 8 aufgezeichnetes Programm ausführen.
  • Das Anforderungsquellenendgerät 1 erzeugt eine Zustandsdatenanforderung zum Prüfen des Anwesenheits-/Abwesenheitszustands einer Zielperson in einem vorgegebenen Bereich und überträgt die Zustandsdatenanforderung über das Netzwerk 2 an den Server 5. Die Zustandsdatenanforderung enthält zusätzlich zur Adresse des Servers 5 die gleichen Daten wie in der ersten Ausführungsform. In Antwort auf den Empfang der Zustandsdatenanforderung bestimmt der Server 5 den Zustand der Zielperson im durch den Kameraabschnitt 4 aufgenommenen vorgegebenen Bereich und erzeugt die das Bestimmungsergebnis darstellenden Zustandsdaten. Der Server 5 speichert die das Bestimmungsergebnis darstellenden Zustandsdaten in der Form von Website-Daten oder einer E-Mail. Das Anforderungsquellenendgerät 1 nimmt über das Netzwerk 2 Bezug auf den Server 5 und ruft die Zustandsdaten ab und stellt sie für den Benutzer dar. Auf diese Weise kann sich der Benutzer über den Zustand der Zielperson informieren.
  • In Antwort auf den Empfang der Zustandsdatenanforderung bestimmt der Server 5 den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich usw. basierend auf dem zum vorgegebenen Zeitpunkt aufgenommenen Referenzbild und dem zum aktuellen Zeitpunkt aufgenommenen aktuellen Bild. Daraufhin überträgt der Server 5 die das Bestimmungsergebnis darstellenden Zustandsdaten über das Netzwerk 2 in der Form von Web site-Daten oder einer E-Mail an das Anforderungsquellenendgerät 1.
  • Der Server 5 weist einen Anforderungseingangsabschnitt 51, einen Bestimmungsabschnitt 52 und einen Zustandsdatenspeicherabschnitt 53 auf. Der Anforderungseingangsabschnitt 51 empfängt die vom Anforderungsquellenendgerät 1 übertragene Zustandsdatenanforderung und gibt die Zustandsdatenanforderung an den Bestimmungsabschnitt 52 aus.
  • Der Bestimmungsabschnitt 52 weist einen Speicher 52a auf und speichert das durch den Kameraabschnitt 4 aufgenommene Bild in einem der Zielperson entsprechenden Bereich des Speichers 52a. Auf diese Weise werden das Referenzbild und das Vergleichsbild im Speicher 52a gespeichert. Der Bestimmungsabschnitt 52 vergleicht das Referenzbild mit dem Vergleichsbild bezüglich des durch die Bereichspezifizierungsdaten spezifizierten Bereichs, bestimmt den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich und erzeugt das Bestimmungsergebnis anzeigende Bestimmungsergebnisdaten. Das durch den Bestimmungsabschnitt 52 ausgeführte Bildverarbeitungsverfahren ist das gleiche wie in der ersten Ausführungsform. Der Bestimmungsabschnitt 52 führt die Bestimmungsverarbeitung zum Bestimmen des Anwesenheits-/Abwesenheitszustands von den Bilddaten wiederholt aus. Die Bestimmungsverarbeitung wird unabhängig von der Zustandsdatenanforderung ausgeführt. Um Leistung einzusparen, kann die Bestimmungsverarbeitung jedoch aktiviert werden, wenn der Anforderungseingangsabschnitt 51 die Zustandsdatenanforderung empfängt, und deaktiviert werden, wenn die Endbedingung erfüllt ist, z.B. die in Verbindung mit der ersten Ausführungsform beschriebene Endbedingung.
  • Der Zustandsdatenspeicherabschnitt 53 weist einen (nicht dargestellten) Zeitgeber auf und speichert die durch den Bestimmungsabschnitt 52 erzeugten Zustandsdaten zusammen mit den Datum- und Uhrzeitdaten. Der Zustandsdatenspeicherabschnitt 53 gibt die gespeicherten Zustandsdaten über das Netzwerk 2 an das Anforderungsquellenendgerät 1 aus. In diesem Fall können die Zustandsdaten nur dann gespeichert werden, wenn die aktuellen Zustandsdaten und die im Zustandsdatenspeicherabschnitt 53 gespeicherten vorangehenden Zustandsdaten verschieden sind, oder die Zustandsdaten können immer gespeichert werden. Außerdem können gemäß dem Speicherungsverfahren die im Zustandsdatenspeicherabschnitt 53 gespeicherten vorangehenden Zustandsdaten aktualisiert werden, so dass nur aktuelle Zustandsdaten gehalten werden, oder die aktuellen Zustandsdaten können zusätzlich neu gespeichert werden. Außerdem kann der Zustandsdatenspeicherabschnitt 53 die aktuellen Zustandsdaten ausgeben, wenn die aktuellen Zustandsdaten von den vorangehenden Zustandsdaten verschieden sind. Diese Ausgabeverarbeitung kann permanent ausgeführt werden, oder sie kann aktiviert werden, wenn die Zustandsdatenanforderung durch den Anforderungseingangsabschnitt 31 empfangen wird, und deaktiviert werden, wenn die Endbedingung erfüllt ist, z.B. die in Verbindung mit der ersten Ausführungsform beschriebene Endbedingung.
  • Nachstehend wird die Arbeitsweise der vierten. Ausführungsform des Überwachungssystems unter Bezug auf die 13A und 13B beschrieben. Die 13A und 13B zeigen Ablaufdiagramme zum Darstellen der Verarbeitung des Servers 5 in der vierten Ausführungsform des erfindungsgemäßen Überwachungssystems für den Fall, dass das Ausgangsübertragungsformat das Website-Datenformat ist. Nachstehend wird die Verarbeitung für den Fall, dass das Ausgangsübertragungsformat das Website-Datenformat ist, unter Bezug auf die 13A und 13B beschrieben.
  • Wie in 13B dargestellt ist, ruft der Bestimmungsabschnitt 52 des Servers 5 das durch den Kameraabschnitt 4 aufgenommene aktuelle Bild ab und speichert es im der Zielperson entsprechenden Bereich des Speichers 52a (Schritt 505). Daraufhin bestimmt der Bestimmungsabschnitt den Zustand. der Zielperson, z.B. den Anwesenheits-/Abwesenheitszustand, den Sitzungs zustand, den Telefongesprächszustand und den Sitzungsabsagezustand, vom aktuellen Bild und vom Referenzbild bezüglich des durch die Bereichspezifizierungsdaten spezifizierten Bereichs (Schritt S506). Hierbei wird eines der in Verbindung mit der ersten Ausführungsform beschriebenen Bildverarbeitungsverfahren (A) bis (D) für das Bestimmungsverfahren für die Zustandsdaten durch die Bildverarbeitung verwendet.
  • Der Zustandsdatenspeicherabschnitt 53 vergleicht die aktuellen Zustandsdaten und die vorangehenden Zustandsdaten, um zu bestimmen, ob die aktuellen Zustandsdaten sich von den vorangehenden Zustandsdaten unterscheiden (Schritt S507). Der Zustandsdatenspeicherabschnitt 53 aktualisiert die aktuellen Zustandsdaten oder speichert sie (Schritt S508), wenn als Ergebnis des Vergleichs keine Übereinstimmung erhalten wird, d.h., wenn der Zustand sich geändert hat (Ja in Schritt S507). Daraufhin wiederholt der Server 5 die Schritte S505 bis S508.
  • Wie in 13A dargestellt ist, gibt der Benutzer die Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über den Anwesenheitszustand der Zielperson an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S501). Das Eingabeverfahren ist das gleiche wie in der ersten Ausführungsform. Das Anforderungsquellenendgerät 1 überträgt die Zustandsdatenanforderung an den Server 5. In diesem Fall sind zusätzlich zu den Daten der ersten Ausführungsform die Adresse des Servers 5 und die mit der Zielperson in Beziehung stehende Serveradresse in der Zustandsdatenanforderung enthalten. Das Anforderungsquellenendgerät 1 ruft die Website-Daten für die zu schreibenden Zustandsdaten von der Adresse des der Zielperson entsprechenden Servers 5 über das Netzwerk 2 ab (Schritt 502). Das Anforderungsquellenendgerät 1 stellt den aktuellen Zustand durch Darstellen der vom Server 5 abgerufenen Website-Daten für den Benutzer auf dem Browser dar (Schritt S503). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform. Daraufhin bestimmt das Anforderungsquellenendgerät 1, ob die Endbedingung erfüllt ist oder nicht, unter Verwendung der Endbedingung und des Bestimmungsverfahrens, die in Verbindung mit der ersten Ausführungsform beschrieben worden sind (Schritt S504). Wenn die Endbedingung nicht erfüllt ist (Nein in Schritt S504), wiederholt das Anforderungsquellenendgerät 1 die Schritte S502 bis S504.
  • Nachstehend wird die Verarbeitung für den Fall beschrieben, dass das Ausgangsübertragungsformat ein E-Mail-Format ist.
  • Wie in 14 dargestellt ist, gibt der Benutzer die Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über den Anwesenheitszustand der Zielperson an einem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S501). Das Eingabeverfahren ist das gleiche wie in der ersten Ausführungsform. Das Anforderungsquellenendgerät 1 überträgt die Zustandsdatenanforderung 5 basierend auf der Serveradresse über das Netzwerk 2 an den Server 5 (Schritt S511). In diesem Fall enthält die an den Server 5 übertragene Zustandsdatenanforderung eine Adresse des Anforderungsquellenendgeräts, die Adresse des Servers 5, den Namen der ausgewählten Zielperson und die Adresse des Servers der Zielperson, die Kameraabschnittadresse, Positionsdaten und Bereichspezifizierungsdaten.
  • Dann empfängt der Anforderungseingangsabschnitt 51 des Servers 5 wie in der ersten Ausführungsform die Zustandsdatenanforderung über das Netzwerk 2 vom Anforderungsquellenendgerät 1, gibt den Namen der ausgewählten Zielperson und andere Daten an den Bestimmungsabschnitt 52 aus und gibt die Serveradresse der Zielperson an den Zustandsdatenspeicherabschnitt 53 aus (Schritt S512). Ähnlich wie in der ersten Ausführungsform ruft der Bestimmungsabschnitt 52 das aktuelle Bild ab, das durch den dem eingegebenen Namen entsprechenden Kameraabschnitt 4 aufgenommen wird, und speichert es in dem der Zielperson entsprechenden Bereich des Speichers 52a (Schritt S505). Dann bestimmt der Bestimmungsabschnitt 52 den Zustand, wie beispielsweise den Anwesenheits-/Abwesenheitszustands, den Sitzungszustand, den Telefongesprächszustand, den Sitzungsabsagezustand, usw. der Zielperson durch eine Bildverarbeitung des aktuellen Bildes und des Referenzbildes bezüglich des durch die Bereichspezifizierungsdaten spezifizierten Bereichs (Schritt S506). Als Bestimmungsverfahren für die Zustandsdaten unter Verwendung der Bildverarbeitung wird eines der Verfahren (A) bis (D) verwendet.
  • Der Zustandsdatenspeicherabschnitt 53 weist einen (nicht dargestellten) Zeitgeber auf und vergleicht die aktuellen Zustandsdaten und die vorangehenden Zustandsdaten, um zu bestimmen, ob die aktuellen Zustandsdaten sich von den vorangehenden Zustandsdaten unterscheiden (Schritt S507). Die Verarbeitung schreitet zu Schritt S513 fort, wenn als Ergebnis des Vergleichs eine Übereinstimmung erhalten wird, d.h. wenn die Zustandsdaten sich nicht geändert haben. Der Zustandsdatenspeicherabschnitt 53 aktualisiert die aktuellen Zustandsdaten zusammen mit den Datum- und Uhrzeitdaten und speichert sie (Schritt S508), wenn als Ergebnis des Vergleichs keine Übereinstimmung erhalten wird, d.h., wenn die Zustandsdaten sich geändert haben (Ja in Schritt S507). Daraufhin bestimmt der Server 5 unter Verwendung der Endebedingung und des Bestimmungsverfahrens, die in Verbindung mit der ersten Ausführungsform beschrieben wurden, ob die Endbedingung erfüllt ist oder nicht (Schritt S513). Wenn die Endebedingung nicht erfüllt ist (Nein in Schritt S513), wiederholt der Server 5 die Schritte S505 bis S508.
  • Wenn das Ausgangsübertragungsformat ein E-Mail-Format ist, liegt der Grund, warum die Ausgabeverarbeitung basierend auf der Endbedingung beendet wird, darin, dass der Empfang vieler E-Mails verhindert werden kann, wenn eine wiederholte Änderung der Zustandsdaten der Zielperson zwischen dem Anwesenheitszustand und dem Abwesenheitszustand im vorgegebenen Bereich auftritt, oder wenn die Zielperson beschäftigt ist und die Zu standsdaten sich beispielsweise nacheinander vom Abwesenheitszustand auf den Anwesenheitszustand, den Sitzungszustand, den Anwesenheitszustand und den Telefongesprächszustand ändern.
  • Das Anforderungsquellenendgerät 1 ruft die Website-Daten für die zu schreibenden Zustandsdaten von der Adresse des der ausgewählten Zielperson entsprechenden Servers 5 über das Netzwerk 2 ab (Schritt S502). Das Anforderungsquellenendgerät 1 stellt den Anwesenheitszustand durch Darstellen der vom Server 5 erhaltenen Website-Daten für den Benutzer auf dem Browser dar (Schritt S503). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform.
  • Daher werden in der vierten Ausführungsform des Überwachungssystems die Zustandsdaten im Server gespeichert, und der Benutzer ruft die Zustandsdaten vom Server ab. Dadurch sind weder ein Endgerät noch eine Anwendung für eine exklusive Verwendung für diesen Zweck erforderlich, und die Zustandsdaten können unter Verwendung des allgemeinen Webbrowsers und eines Mailers bestätigt werden.
  • Die vierte Ausführungsform des Überwachungssystems ist nicht auf das vorstehend beschriebene Beispiel beschränkt. Die vierte Ausführungsform des Überwachungssystems kann außer zum Überwachen des Anwesenheitszustands der Zielperson am Überwachungsort auch für die Zustandsbestimmung des Überwachungsorts verwendet werden. Beispielsweise kann das Zustandsbestimmungsverfahren des Überwachungsortes auf den ein-/ausgeschalteten Zustand einer Beleuchtung, den offenen/geschlossenen Zustand einer Tür, usw. angewendet werden.
  • Gemäß der vorstehenden Beschreibung wurde deutlich, dass durch die vierte Ausführungsform des Überwachungssystems zusätzlich zur Verarbeitung der ersten Ausführungsform die Zustandsdaten unter Verwendung des allgemeinen Webbrowsers und des Mailers bestätigt werden können.
  • Fünfte Ausführungsform
  • In der fünften Ausführungsform des Überwachungssystems können zusätzlich zur Verarbeitung und Wirkung der ersten Ausführungsform durch Hinzufügen eines Zustandsdatenspeicherabschnitts und eines Statistikdatenberechnungsabschnitts zur Struktur der ersten Ausführungsform und durch Ausführen eines statistischen Berechnung bezüglich der Zustandsdaten nützliche Daten erhalten werden, wie beispielsweise eine prozentuale Besucherdichte.
  • Nachstehend wird die fünfte Ausführungsform des Überwachungssystems unter Bezug auf 6 beschrieben. In der Struktur der fünften Ausführungsform des Überwachungssystems bezeichnen sind die gleichen Bezugszeichen, die in der ersten Ausführungsform verwendet wurden, gleichen Komponenten zugeordnet. Nachstehend werden nur die Verarbeitungen des in der fünften Ausführungsform des Überwachungssystems hinzugefügten Zustandsspeicherabschnitts und des Statistikdatenberechnungsabschnitts beschrieben. Die mit der ersten Ausführungsform in Beziehung stehende Verarbeitung wird nicht näher beschrieben.
  • 6 zeigt ein Blockdiagramm zum Darstellen der Struktur der fünften Ausführungsform des erfindungsgemäßen Überwachungssystems. Gemäß 6 weist die fünfte Ausführungsform des Überwachungssystems ein Anforderungsquellenendgerät 1 als Anforderungsquelle an der Seite eines Benutzers, ein Netzwerk 2, z.B. das Internet, ein Intranet, usw., einen Kameraabschnitt 4 zum Aufnehmen eines vorgegebenen Bereichs als Bild und ein mit dem Kameraabschnitt 4 verbundenes Kameraverbindungsendgerät 3 auf. Das Netzwerk 2 verbindet das Anforderungsquellenendgerät 1 mit dem Kameraverbindungsendgerät 3. Außerdem kann das Kameraverbindungsendgerät 3 ein auf einem Aufzeichnungsmedium 8 aufgezeichnetes Programm ausführen.
  • Das Anforderungsquellenendgerät 1 erzeugt eine Zustandsdatenanforderung zum Prüfen des Anwesenheits-/Abwesenheitszustands einer Zielperson in einem vorgegebenen Bereich und über trägt die Zustandsdatenanforderung über das Netzwerk 2 an das Kameraverbindungsendgerät 3. Außerdem gibt der Benutzer eine Anforderung für Statistikdaten über das Anforderungsquellenendgerät 1 ein, um Statistikdaten anzufordern. Die Anforderung für Statistikdaten wird vom Anforderungsquellenendgerät 1 über das Netzwerk 2 an das Kameraverbindungsendgerät 3 übertragen. Der Anforderungseingangsabschnitt 31 des Kameraverbindungsendgeräts 3 empfängt die Anforderung für Statistikdaten und gibt die Anforderung für Statistikdaten an den Statistikdatenberechnungsabschnitt 7 aus.
  • In Antwort auf den Empfang der Zustandsdatenanforderung bestimmt das Kameraverbindungsendgerät 3 den Zustand der Zielperson im durch den Kameraabschnitt 4 aufgenommenen vorgegebenen Bereich und erzeugt die das Bestimmungsergebnis darstellenden aktuellen Zustandsdaten. Das Kameraverbindungsendgerät 3 überträgt die aktuellen Zustandsdaten in Antwort auf die Zustandsdatenanforderung über das Netzwerk 2 an das Anforderungsquellenendgerät 1. Das Anforderungsquellenendgerät 1 stellt die aktuellen Zustandsdaten für den Benutzer dar. Auf diese Weise kann sich der Benutzer über den Zustand der Zielperson informieren. Außerdem überträgt das Kameraverbindungsendgerät 3 in Antwort auf den Empfang der Anforderung für Statistikdaten die Statistikdaten über das Netzwerk 2 an das Anforderungsquellenendgerät 1. Das Anforderungsquellenendgerät 1 stellt die Statistikdaten für den Benutzer dar. Auf diese Weise kann der Benutzer sich über Statistiken bezüglich des Zustands der Zielperson informieren.
  • Das Kameraverbindungsendgerät 3 besteht aus dem Anforderungseingangsabschnitt 31, dem Bestimmungsabschnitt 32, dem Ergebnisausgabeabschnitt 33, dem Zustandsdatenspeicherabschnitt 6 und dem Statistikdatenberechnungsabschnitt 7.
  • Wie in der ersten Ausführungsform empfängt der Anforderungseingangsabschnitt 31 die vom Anforderungsquellenendgerät 1 übertragene Zustandsdatenanforderung und gibt sie an den Be stimmungsabschnitt 32 und den Ergebnisausgabeabschnitt 33 aus. Außerdem empfängt der Anforderungseingangsabschnitt 31 die vom Anforderungsquellenendgerät 1 übertragene Anforderung für Statistikdaten und gibt sie an den Statistikdatenberechnungsabschnitt 7 und den Ergebnisausgabeabschnitt 33 aus.
  • Der Bestimmungsabschnitt 32 weist einen Speicher 32a auf und speichert das durch den Kameraabschnitt 4 aufgenommene Bild im Speicher 32a. Auf diese Weise werden im Speicher 32a das Referenzbild das aktuelle Bild gespeichert. Der Bestimmungsabschnitt 32 vergleicht das Referenzbild mit dem Vergleichsbild bezüglich des durch die Bereichspezifizierungsdaten spezifizierten Bereichs, bestimmt den Anwesenheits-/Abwesenheitszustand der Zielperson im spezifizierten Bereich und erzeugt das Bestimmungsergebnis anzeigende Bestimmungsergebnisdaten. Das durch den Bestimmungsabschnitt 33 ausgeführte Bildverarbeitungsverfahren ist das gleiche wie in der ersten Ausführungsform. Insbesondere führt der Bestimmungsabschnitt 32 (A) eine Zustandbestimmungsverarbeitung basierend auf dem Anwesenheits-/Abwesenheitszustand der Zielperson; (B) eine Verarbeitung zum Bestimmen eines Sitzungszustands der Zielperson; (C) eine Verarbeitung zum Bestimmen eines Telefongesprächszustands der Zielperson; und (D) eine Verarbeitung zum Bestimmen eines Sitzungsabsagezustands der Zielperson aus und erzeugt die Bestimmungsergebnisdaten. Der Bestimmungsabschnitt 32 überträgt die erzeugten Bestimmungsergebnisdaten an den Ergebnisausgabeabschnitt 33.
  • Der Zustandsdatenspeicherabschnitt 6 weist einen (nicht dargestellten) Zeitgeber auf und speichert die durch den Bestimmungsabschnitt 32 erzeugten Zustandsdaten zusammen mit den Datum- und Uhrzeitdaten.
  • Der Statistikdatenberechnungsabschnitt 7 berechnet Statistikdaten von Zeitfolge-Zustandsdaten, d.h. von einer Zeitfolge der im Zustandsdatenspeicherabschnitt 6 gespeicherten Zustands daten. Die berechneten Statistikdaten werden an den Ergebnisausgabeabschnitt 33 ausgegeben.
  • Der Ergebnisausgabeabschnitt 33 weist einen Zeitgeber (nicht dargestellt) und einen Speicher 33a auf. Der Ergebnisausgabeabschnitt 33 vergleicht die aktuellen Zustandsdaten vom Bestimmungsabschnitt 32 und die im Speicher 33a gespeicherten vorangehenden Zustandsdaten. Der Ergebnisausgabeabschnitt 33 speichert die Zustandsdaten vom Bestimmungsabschnitt 32 im der Zielperson entsprechenden Bereich des Speichers 33a als aktuelle Zustandsdaten basierend auf dem Vergleichsergebnis. Außerdem überträgt der Ergebnisausgabeabschnitt 33 die aktuellen Zustandsdaten und die Statistikdaten über das Netzwerk 2 an das Anforderungsquellenendgerät 1. Der Ergebnisausgabeabschnitt 33 führt die Ausgabeverarbeitung zum Ausgeben der aktuellen Zustandsdaten aus, wenn die aktuellen Zustandsdaten sich von den vorangehenden Zustandsdaten unterscheiden. Der Ergebnisausgabeabschnitt 33 kann zusätzlich zu den aktuellen Zustandsdaten auch die Bilddaten an das Anforderungsquellenendgerät 1 übertragen.
  • Gemäß der fünften Ausführungsform des Überwachungssystems können ein Management der Angestellten und ein Management eines Gedrängezustands in einem Geschäft durch Aufzeichnen des Anwesenheits-/Abwesenheitszustands der Zielperson(en) am durch den Kameraabschnitt 4 aufgenommenen Ort und unter Verwendung eines Prozentanteils des Anwesenheitszustands und des Abwesenheitszustands ausgeführt werden. Im Fall des Managements von Angestellten kann Arbeitsraum eingespart werden, indem die Anwesenheitssituation der Angestellten und die gemeinsame Nutzung von Schreibtischen zwischen verschiedenen Angestellten im Anwesenheitszustandzeitbereich erfasst wird. Außerdem kann in einem Büro, in dem über die gesamte Tageszeit eine Schreibtischarbeit ausgeführt wird, die Arbeitssituation korrekt erfasst werden. Beim Management eines Gedrängezustands in einem Geschäft wird beispielsweise die prozentuale Besucherdichte für jeweilige Zeitbereiche eines Tages durch eine Bildverarbeitung erfasst, und die zeitlichen Änderungen der prozentualen Besucherdichte und eines Gedrängeortes werden statistisch berechnet. Dadurch kann erfasst werden, an welchem Ladentisch sich Besucher konzentrieren und in welchem Zeitbereich eine hohe Besucherdichte auftritt, kann der Besucherstrom im Geschäft erfasst werden, usw. Daher sind Statistikdaten zum Bestimmen der Anordnung von Ladentischen und der Sicherung des Raums nützlich, und ein Gedrängezustand kann vermindert und der Gewinn erhöht werden.
  • Die vorstehend erwähnten Statistikdaten sind z.B. ein Prozentanteil eines Belegt- oder Besetztzustands, z.B. der Prozentanteil des Anwesenheitszustands und ein Prozentanteil des Abwesenheitszustands, ein Besucherdichte- oder Gedrängegrad und ein Gedrängeort, ein Besucherstrom in einem Geschäft, usw. Wie vorstehend erwähnt wurde, sind die zum Berechnen der Statistikdaten erforderlichen Zustandsdaten die Zustandsdaten des Anwesenheits-/Abwesenheitszustands, ein Verhältnis eines der (den) Zielperson(en) zugeordneten Bereichs zu einem vorgegebenen Bereich und eine der Zielperson (Zielpersonen) zugeordnete Position und Uhrzeit. Der Bestimmungsabschnitt 32 erzeugt die Zustandsdaten gemäß mindestens einer der folgenden Informationen: dem Anwesenheits-/Abwesenheitszustand der Zielperson, einem der (den) Zielperson(en) zugeordneten Bereich und einem Verhältnis des Bereichs zu einem vorgegebenen Bereich bzw. einer der Zielperson zugeordneten Position basierend auf dem zu einem vorgegebenen Zeitpunkt aufgenommenen Referenzbild und dem zu einem von dem vorgegebenen Zeitpunkt verschiedenen Zeitpunkt aufgenommenen aktuellen Bild. Der Statistikdatenberechnungsabschnitt 7 berechnet die Statistikdaten gemäß mindestens einer der folgenden Informationen: dem Prozentanteil des Anwesenheits-/Abwesenheitszustands einer Zielperson, einem Dichte- oder Gedrängegrad der Zielperson(en) und eines Orts eines durch die Zielperson(en) verursachten Gedrängezustands basierend auf Zustandsdaten, die mindestens einer der folgenden Informationen entsprechen: dem Anwesenheits-/Abwesenheitszustand der Zielperson, einem der (den) Zielperson(en) zugeordneten Bereich und einem Verhältnis des Bereichs zu einem vorgegebenen Bereich bzw. einer der Zielperson zugeordneten Position. Das Kameraverbindungsendgerät 3 kann (S) den prozentualen Anteil z.B. des Anwesenheitszustands und des Abwesenheitszustands, (T) den Besucherdichte- oder Gedrängegrad in einem Geschäft, (U) einen Gedrängeort in einem Geschäft und (V) den Besucherstrom in einem Geschäft basierend auf den Statistikdaten und den zum Berechnen der vorstehend erwähnten Statistikdaten erforderlichen Zustandsdaten bestimmen.
  • Nachstehend wird zunächst das Verfahren zum Berechnen des Prozentanteils eines Besetztzustands, z.B. des Prozentanteils des Anwesenheitszustands bzw. des Prozentanteils des Abwesenheitszustands beschrieben. Im Verfahren zum Berechnen des Prozentanteils des Anwesenheits-/Abwesenheitszustands wird der Anwesenheits-/Abwesenheitszustand unter Verwendung des in Verbindung mit der ersten Ausführungsform beschriebenen Verfahrens (A2) bestimmt. Die Zustandsdaten des Anwesenheits-/Abwesenheitszustands werden an den Zustandsdatenspeicherabschnitt 6 ausgegeben.
  • Der Statistikdatenberechnungsabschnitt 7 berechnet als Statistikdaten einen Prozentanteil der Zeitdauer des Anwesenheitszustands zu einer vorgegebenen Zeit aus den im Zustandsdatenspeicherabschnitt 6 gespeicherten Zeitfolge-Zustandsdaten, d.h. der zeitlichen Folge von Zustandsdaten. Die berechneten Statistikdaten stellen einen Prozentanteil eines Besetztzustands, z.B. den Prozentanteil des Anwesenheitszustands zum Abwesenheitszustand dar.
  • Nachstehend wird das Verfahren zum Berechnen eines Besucherdichte- oder Gedrängegrades in einem Geschäft beschrieben. Als Verfahren zum Berechnen eines Besucherdichte- oder Gedrängegrades in einem Geschäft kommen zwei Verfahren in Betracht.
  • Gemäß einem ersten Verfahren zum Berechnen eines Gedrängegrades in einem Geschäft wird der Anwesenheits- oder Abwesenheitszustand einer Zielperson unter Verwendung des in Verbindung mit der ersten Ausführungsform beschriebenen Verfahrens (A2) bestimmt. Der Bestimmungsabschnitt 32 bestimmt die Anwesenheit/Abwesenheit der Zielperson basierend auf dem Helligkeitsunterschied zwischen dem Hintergrundbild (Referenzbild) und dem aktuellen Bild bezüglich des durch die Bereichspezifizierungsdaten spezifizierten Bereichs. Der Bestimmungsabschnitt 32 kann durch die Bestimmungsverarbeitung ein Verhältnis der der Zielperson zugeordneten Pixel zu allen Pixeln im aktuellen Bild bestimmen. Der Bestimmungsabschnitt 32 gibt das Verhältnis an den Zustandsdatenspeicherabschnitt 6 als Zustandsdaten aus. Der Statistikdatenberechnungsabschnitt 7 handhabt das gespeicherte Verhältnis als Gedrängegrad im spezifischen Bereich (Statistikdaten). Außerdem berechnet der Statistikdatenberechnungsabschnitt 7 als Statistikdaten eine Gedrängezeit, während der der Gedrängegrad der zeitlichen Folge der im Zustandsdatenspeicherabschnitt 6 gespeicherten Zustandsdaten, d.h. der Zeitfolge-Zustandsdaten, größer ist als ein vorgegebener Schwellenwert. D.h., der Statistikdatenberechnungsabschnitt 7 berechnet, in welchem Zeitbereich welches Wochentages ein Gedränge auftritt, durch Summieren der Zustandsdaten in Einheiten von Wochen und Berechnen eines Mittelwertes über jeden Zeitbereich und jeden Wochentag. Dadurch kann der Statistikdatenberechnungsabschnitt 7 die Statistikdaten des Gedrängegrades berechnen.
  • Im zweiten Verfahren zum Berechnen eines Gedrängegrades wird der Gedrängegrad unter Verwendung des in Verbindung mit der ersten Ausführungsform beschriebenen Verfahrens (A2) berechnet. Der Bestimmungsabschnitt 32 weist jeder Gruppe von Pixeln des Hintergrundbildes eine Markierung zu und bestimmt die Anzahl von Besuchern vom Bild der Besucher, wobei vorausgesetzt wird, dass Zielpersonen vorhanden sind, wenn im aktuellen Bild Pixel mit der gleichen Markierung unterschieden werden. Dann gibt der Bestimmungsabschnitt 32 die Anzahl an den Zustandsdatenspeicherabschnitt 6 als Zustandsdaten aus. Der Statistikdatenberechnungsabschnitt 7 berechnet von den Zeitfolge-Zustandsdaten und einem vorgegebenen Schwellenwert als Statistikdaten ein Verhältnis zwischen einer Gedrängezeit, während der der Gedrängegrad höher ist als der vorgegebene Schwellenwert, und einer vorgegebenen Zeit, wobei die Zeitfolge-Zustandsdaten die Zeitfolge der Anzahlen von Zielpersonen als die im Zustandsdatenspeicherabschnitt 6 gespeicherten Zustandsdaten darstellen. Die berechneten Statistikdaten stellen den Gedrängegrad im Geschäft dar. D.h., der Statistikdatenberechnungsabschnitt 7 berechnet, in welchem Zeitbereich welches Wochentages ein Gedrängezustand auftritt, durch Summieren der Zustandsdaten in Einheiten von Wochen und Berechnen eines Mittelwertes für jeden Zeitbereich und jeden Wochentag. Dadurch kann der Statistikdatenberechnungsabschnitt 7 die Statistikdaten des Gedrängegrades berechnen.
  • Nachstehend wird das Verfahren zum Bestimmen eines Gedrängeortes in einem Geschäft beschrieben.
  • Im Verfahren zum Bestimmen eines Gedrängeortes in einem Geschäft wird zunächst das in Verbindung mit der ersten Ausführungsform beschriebene Verfahren (A2) verwendet. Das Hintergrundbild ist im Speicher 32a des Bestimmungsabschnitts 32 vorgespeichert. Der Bestimmungsabschnitt 32 teilt das aktuelle Bild und das Hintergrundbild in mehrere Bildblöcke, berechnet den Helligkeitsunterschied zwischen entsprechenden Bildblöcken des aktuellen Bildes und des Hintergrundbildes und berechnet ein Verhältnis zwischen den Bildblöcken mit einem Helligkeitsunterschied, der größer oder gleich einem vorgegebenen Schwellenwert ist, zu den gesamten Bildblöcken. Der Bestimmungsabschnitt 32 gibt das Verhältnis an den Zustandsdatenspeicherabschnitt 6 als die Zustandsdaten aus. Der Statistikdatenberechnungsabschnitt 7 berechnet eine Gesamtzahl der zeitlichen Folge der Zustandsdaten, d.h. eine Gesamtzahl der Zeitfolge-Zustandsdaten, deren Verhältnis größer oder gleich einem vorgegebenen Schwellenwert ist, als die Statistikdaten für die Gedrängezeit am Gedrängeort basierend auf dem im Zustandsdatenspeicherabschnitt 6 gespeicherten Verhältnis. D.h., der Statistikdatenberechnungsabschnitt 7 kann die Statistikdaten am Gedrängeort durch Berechnen eines Mittelwertes der Zustandsdaten für jede Zeit jedes Wochentages berechnen und die Blöcke, in denen die Verhältnisse größer oder gleich dem Schwellenwert sind, als Gedrängeort setzen.
  • Nachstehend wird ein Verfahren zum Berechnen eines Besucherstroms in einem Geschäft beschrieben.
  • Im Verfahren zum Berechnen eines Besucherstroms in einem Geschäft wird das in Verbindung mit der ersten Ausführungsform beschriebene Verfahren (A1) verwendet. Das Hintergrundbild eines spezifizierten Geschäftsbereichs (das durch den Kameraabschnitt 4 aufgenommene Hintergrundbild), in dem kein Besucher vorhanden ist, wird im Speicher 32a des Bestimmungsabschnitts 32 vorgespeichert. Der Bestimmungsabschnitt 32 berechnet den Helligkeitsunterschied zwischen dem Hintergrundbild und dem aktuellen Bild in Einheiten entsprechender Pixel. Weil der Helligkeitsunterschied berechnet wird, wenn Besucher anwesend sind, wird der Bereich, in dem ein Helligkeitsunterschied festgestellt wird, als Besucheranwesenheitsbereich gesetzt. Wenn kein Helligkeitsunterschied festgestellt wird, wird der Bereich als Besucherabwesenheitsbereich gesetzt. Dadurch wird der Anwesenheits-/Abwesenheitszustand einer Zielperson (der dem vorstehend erwähnten Anwesenheits-/Abwesenheitszustand entspricht) bestimmt. Der Bestimmungsabschnitt 32 weist der Gruppe von Pixeln mit dem Helligkeitsunterschied eine Markierung zu, um den Besucheranwesenheitsbereich zu extrahieren, und betrachtet eine mittlere Position aller Pixel des Besucheranwesenheitsbereichs für eine Person als Anwesenheitsposition des Besuchers. Der Bestimmungsabschnitt 32 gibt die Anwesenheitsposition des Besu chers an den Zustandsdatenspeicherabschnitt 6 als Zustandsdaten aus. Der Zustandsdatenspeicherabschnitt 6 speichert die vom Bestimmungsabschnitt 32 erhaltenen Zustandsdaten.
  • Der Statistikdatenberechnungsabschnitt 7 ordnet die im Zustandsdatenspeicherabschnitt 6 gespeicherten Zustandsdaten in einer Zeitfolge an (als Zeitfolge-Zustandsdaten) und berechnet eine Gesamtzahl von Ereignissen, während denen Besucher in den Zeitfolge-Zustandsdaten vorhanden ist, als Statistikdaten. D.h., der Statistikdatenberechnungsabschnitt 7 kann den Besucherstrom im Geschäft durch Verfolgen des Besuchers unter Verwendung der die Anwesenheitsposition des Besuchers darstellenden Zeitfolge-Zustandsdaten bestimmen. Im Verfahren zum Verfolgen der Zielperson wird beispielsweise der Unterschied zwischen einer Position (xt1, yt1) des Besuchers zu einem Zeitpunkt t1 und einer Position (xt2, yt2) des Besuchers zu einem Zeitpunkt t2 als Bewegung des Besuchers interpretiert, und die Position (xt, yt) des Besuchers zu einem Zeitpunkt t wird als Position (2xt1-xt2), 2yt1-yt2) durch Addieren einer Bewegung zur Position zum Zeitpunkt t1 geschätzt. Einer der Besucher, der sich zum Zeitpunkt t am nähesten zur geschätzten Position befindet, wird als Zielperson betrachtet. Dadurch kann die Zielperson verfolgt werden.
  • Wie vorstehend beschrieben wurde, kann die fünfte Ausführungsform des Überwachungssystems die gewünschten Daten, z.B. einen Gedrängegrad, durch Ausführen der statistischen Berechnung erhalten.
  • Das Format der Statistikdaten wird als Bitfolge oder als Textdaten realisiert. Ein Beispiel einer Bitfolge und ein Beispiel von Textdaten sind in den 18A und 18B dargestellt.
  • Die 18A und 18B zeigen die Statistikdaten für den Fall eines Zeitpunktes "11:59:59, 1. Januar 2001", die Zustandsdaten des Anwesenheitszustands, die Anzahl "3" der Zielpersonen, die Positionen "(100, 100), (200, 300), (300, 50), einen Gedrängegrad von "80%", einen Gedrängeort von "0%, 0%, 50%, 80%, 70%, 30%, 0%, 0%"
  • Im Fall einer Bitfolge ist die Anforderung für Statistikdaten der Zustandsdatenanforderung ähnlich. Wie in 18A dargestellt ist, bestehen die Statistikdaten aus einen Zeitpunkt anzeigenden Bitdaten, einen Anwesenheits- oder Abwesenheitszustand anzeigenden Bitdaten, eine Anzahl von Personen anzeigenden Bitdaten, die Anwesenheitsposition der Zielperson anzeigenden Bitdaten, einen Gedrängegrad anzeigenden Bitdaten und einen Gedrängeort anzeigenden Bitdaten.
  • Im Fall von Textdaten ist die Anforderung für Statistikdaten der Zustandsdatenanforderung ähnlich. Wie in 18B dargestellt ist, bestehen die Statistikdaten aus einem einen Zeitpunkt "2001/01/01" anzeigenden Zeitwert, einem Anwesenheitswert, der anzeigt, dass die Zustandsdaten den Inhalt "Ja" haben, einem Personenanzahlwert, der anzeigt, Anzahl von Personen "3" beträgt, einem Ortswert, der anzeigt, dass die Anwesenheitsposition der Zielperson "(100, 100), (200, 300), (300, 50) ist, einem Gedrängegradwert, der anzeigt, dass ein Gedrängegrad "0,8" beträgt, und einem Gedrängeortwert, der anzeigt, dass ein Gedrängeort "0; 0; 0,5; 0,8; 0,7; 0,3; 0,0" beträgt.
  • Nachstehend wird unter Bezug auf 15 die Arbeitsweise der vorstehend beschriebenen fünften Ausführungsform des Überwachungssystems beschrieben. Wie in 15 dargestellt ist, ruft der Bestimmungsabschnitt 32 des Kameraverbindungsendgeräts 3 die Bilddaten ab, die das durch den Kameraabschnitt 4 aufgenommene Bild anzeigen (Schritt S404), und bestimmt einen Anwesenheits-/Abwesenheitszustand der Zielperson, die Position der Zielperson, die Anzahl der Zielpersonen, usw. (Schritt S405). Hierbei werden für die Bildverarbeitung eines der in Verbindung mit der ersten Ausführungsform beschriebenen Verfahren (A) bis (D) und die Verfahren (S) bis (V) verwendet. Der Zustandsdatenspeicherabschnitt 6 des Kameraverbindungsendgeräts 3 speichert die aktuellen Zustandsdaten zusammen mit den Zeit- und Datumda ten (Schritt S406). Das Kameraverbindungsendgerät 3 wiederholt die Schritte S404 und S406.
  • Der Benutzer gibt eine Zustandsdatenanforderung über das Anforderungsquellenendgerät 1 ein, wenn er sich über Statistikdaten des Anwesenheitszustands und des Abwesenheitszustands an dem Ort informieren möchte, an dem der Kameraabschnitt 4 installiert ist (Schritt S401). Beispielsweise wird als Eingabeverfahren ein Fenster für die Zustandsdatenanforderungseingabe auf dem Display des Anforderungsquellenendgeräts 1 dargestellt. Der Benutzer wählt einen Namen der Zielperson (der Zielperson oder des Geschäfts) über die er Zustandsdaten erhalten möchte, als Zustandsdatenanforderung aus. Zu diesem Zeitpunkt kann der Benutzer die Adresse des der ausgewählten Zielperson entsprechenden Kameraabschnitts 3 durch Auswählen der Statistikdaten von den Zustandsdaten und der Statistikdaten im Fall der Zielperson spezifizieren. Außerdem kann der Benutzer die Adresse des der ausgewählten Zielperson entsprechenden Kameraverbindungsendgeräts 3 durch Auswählen der Art der statistischen Dsten im Fall eines Geschäfts spezifizieren. Außerdem überträgt das Anforderungsquellenendgerät 1 die Zustandsdatenanforderung an die der ausgewählten Zielperson (der Zielperson oder des Geschäfts) entsprechende Adresse (Schritt S402). Die Zustandsdatenanforderung enthält den Namen der ausgewählten Zielperson, die Adresse des Kameraverbindungsendgeräts 3 und die Adresse des Anforderungsquellenendgeräts 1. Die Zustandsdatenanforderung vom Anforderungsquellenendgerät 1 wird durch das Kameraverbindungsendgerät 3 mit der spezifizierten Adresse über das Netzwerk 2 empfangen (Schritt S403).
  • Dann empfängt der Anforderungseingangsabschnitt 31 des Kameraverbindungsendgeräts 3 die Zustandsdatenanforderung vom Anforderungsquellenendgerät 1 über das Netzwerk 2 und gibt den in der empfangenen Zustandsdatenanforderung enthaltenen Namen der ausgewählten Zielperson an den Bestimmungsabschnitt 32 aus, und gibt die in der empfangenen Zustandsdatenanforderung enthaltene Adresse des Anforderungsquellenendgeräts 1 an den Ergebnisausgabeabschnitt 33 aus. Dem Bestimmungsabschnitt 32 wird der in der Zustandsdatenanforderung vom Anforderungseingangsabschnitt 31 enthaltene Name der ausgewählten Zielperson zugeführt, und der Bestimmungsabschnitt ruft die Zustandsdaten (z.B. die Zustandsdaten für den letzten Monat), die durch den dem zugeführten Namen entsprechenden Kameraabschnitt 4 bereits erhalten worden sind, vom Zustandsdatenspeicherabschnitt 6 ab (Schritt S407)
  • Dann berechnet der Statistikdatenberechnungsabschnitt 7 die Statistikdaten von den vom Zustandsdatenspeicherabschnitt 6 abgerufenen Zustandsdaten (Schritt S408) und gibt sie an den Ergebnisausgabeabschnitt 33 aus. Hierbei wird eines der Verfahren (S) bis (V) zum Berechnen der Statistikdaten verwendet. Der Ergebnisausgabeabschnitt 33 überträgt die durch den Statistikdatenberechnungsabschnitt 7 berechneten Statistikdaten an das Anforderungsquellenendgerät 1 (Schritt S409).
  • Dann empfängt das Anforderungsquellenendgerät 1 die über das Netzwerk 2 übertragenen Statistikdaten (Schritt S410) und stellt den Anwesenheitszustand und den Abwesenheitszustand, usw. basierend auf den Statistikdaten für den Benutzer auf dem Display dar (Schritt S411). Das Darstellungsverfahren ist das gleiche wie in der ersten Ausführungsform, wobei zusätzlich zu Buchstaben auch ein Graph dargestellt werden kann.
  • Auf diese Weise kann die fünfte Ausführungsrom des Überwachungssystems die gewünschten Daten, wie beispielsweise den Gedrängegrad, durch Ausführen einer statistischen Rechenverarbeitung von den Zustandsdaten erhalten.
  • Die fünfte Ausführungsform des Überwachungssystems ist nicht auf das vorstehend beschriebene Beispiel beschränkt. Die vorliegende Erfindung kann außer zur Überwachung des Anwesenheitszustands der Zielperson am Überwachungsort auch für die Zustandsbestimmung des Überwachungsortes verwendet werden. Beispielsweise kann die Zustandsüberwachung des Überwachungsortes auf den ein-/ausgeschalteten Zustand einer Beleuchtung und den offenen/geschlossenen Zustand einer Tür angewendet werden.
  • Außerdem ist die fünfte Ausführungsform des Überwachungssystems nicht auf den Fall beschränkt, dass der Kameraabschnitt 4 und das Kameraverbindungsendgerät 3 direkt verbunden sind, sondern der Kameraabschnitt 4 und das Kameraverbindungsendgerät 3 können über das Netzwerk 2 verbunden sein.
  • Außerdem ist die vorliegende Erfindung nicht auf einen Fall beschränkt, gemäß dem der Zustandsdatenspeicherabschnitt 6 und der Statistikdatenberechnungsabschnitt 7 nur in der fünften Ausführungsform des Überwachungssystems hinzugefügt sind, sondern sie können auch in den ersten bis vierten Ausführungsformen hinzugefügt werden. In diesem Fall werden der Zustandsdatenspeicherabschnitt 6 und der Statistikdatenberechnungsabschnitt 7 in der ersten und der der zweiten Ausführungsform des Überwachungssystems für das Kameraverbindungsendgerät 3, in der dritten Ausführungsform des Überwachungssystems für das Anforderungsquellenendgerät 1 und in der vierten Ausführungsform des Überwachungssystems für den Server 5 bereitgestellt.
  • Außerdem ist die fünfte Ausführungsform des Überwachungssystems nicht auf das Kameraverbindungsendgerät 3 beschränkt, sondern es kann ein Server verwendet werden.
  • Gemäß der vorstehenden Beschreibung kann die fünfte Ausführungsform des Überwachungssystems zusätzlich zur Wirkung der ersten Ausführungsform auch gewünschte Daten, z.B. den Gedrängegrad, durch Ausführen einer statistischen Rechenverarbeitung von den Statistikdaten erhalten.
  • Außerdem kann durch das erfindungsgemäße Überwachungssystem Arbeitsaufwand eines Benutzers bei der Überwachung einer Zielperson eingespart werden.

Claims (47)

  1. Überwachungssystem mit: einem Kameraabschnitt (4), der dazu geeignet ist, einen vorgegebenen Bereich für eine Zielperson aufzunehmen; einer Anforderungseinheit (1), die dazu geeignet ist, eine Zustandsdatenanforderung auszugeben, wobei die Anforderungseinheit (1) dazu geeignet ist, Zustandsdaten anzufordern, die einen Anwesenheits-/Abwesenheitszustand, einen Sitzungszustand/Nicht-Sitzungszustand, einen Telefongesprächszustand/Nicht-Telefongesprächszustand oder einen Sitzungsabsagezustand/Nicht-Sitzungsabsagezustand aufweisen, um einen Zustand einer Zielperson darzustellen; und einer Zustandsdatenerzeugungseinheit (31, 32, 33, 12, 13, 52, 53, 6, 7), die dazu geeignet ist, die Zustandsdaten für die Zielperson im vorgegebenen Bereich basierend auf einem durch den Kameraabschnitt zu einem ersten Zeitpunkt aufgenommenen ersten Bild und einem durch den Kameraabschnitt zu einem bezüglich des ersten Zeitpunkts späteren Zeitpunkt aufgenommenen zweiten Bild in Antwort auf die Zustandsdatenanforderung zu bestimmen und die bestimmten Zustandsdaten für die Zielperson an die Anforderungseinheit auszugeben; wobei die Anforderungseinheit die durch die Zustanddatenerzeugungseinheit bestimmten Zustandsdaten für einen Benutzer darstellt.
  2. Überwachungssystem nach Anspruch 1, wobei das Überwachungssystem ferner ein Netzwerk (2) aufweist; die Anforderungseinheit für ein mit dem Netzwerk (2) verbundenes erstes Endgerät (1) auf der Seite des Benutzers bereitgestellt wird; und die Zustandsdatenerzeugungseinheit für ein über das Netzwerk mit dem ersten Endgerät verbundenes zweites Endgerät (3, 5) bereitgestellt wird, um die Zustandsdatenanforderung über das Netzwerk zu empfangen und die bestimmten Zustandsdaten an die Anforderungseinheit des ersten Endgeräts zu übertragen.
  3. Überwachungssystem nach Anspruch 1, wobei das Überwachungssystem ein Netzwerk (2) und einen mit dem Netzwerk verbundenen Server (5) aufweist; wobei die Anforderungseinheit für ein mit dem Netzwerk verbundenes erstes Endgerät (1) auf der Seite des Benutzers bereitgestellt wird; die Zustandsdatenerzeugungseinheit für ein über das Netzwerk mit dem ersten Endgerät verbundenes zweites Endgerät (3) bereitgestellt wird, um die Zustandsdatenanforderung über das Netzwerk zu empfangen und die bestimmten Zustandsdaten im Server zu speichern; und das erste Endgerät die bestimmten Zustandsdaten vom Server abruft.
  4. Überwachungssystem nach Anspruch 1, wobei das Überwachungssystem ein Netzwerk (2) aufweist; die Anforderungseinheit für ein mit dem Netzwerk verbundenes erstes Endgerät (1) auf der Seite des Benutzers bereitgestellt wird; die Zustandsdatenerzeugungseinheit für ein über das Netzwerk mit dem ersten Endgerät verbundenes zweites Endgerät (5) bereitgestellt wird, um die bestimmten Zustandsdaten zu halten; und das erste Endgerät die bestimmten Zustandsdaten vom zweiten Endgerät abruft.
  5. Überwachungssystem nach Anspruch 1, wobei das Überwachungssystem ein Netzwerk (2) aufweist; und die Anforderungseinheit und die Zustandsdatenerzeugungseinheit für ein mit dem Netzwerk verbundenes erstes Endgerät (1) auf der Seite des Benutzers bereitgestellt wird.
  6. Überwachungssystem nach einem der Ansprüche 2 bis 5, wobei der Kameraabschnitt über das Netzwerk mit der Zustandsdatenerzeugungseinheit verbunden ist.
  7. Überwachungssystem nach einem der Ansprüche 2 bis 4, wobei die Zustandsdatenerzeugungseinheit die bestimmten Zustandsdaten im Website-Datenformat oder im E-Mail-Format überträgt.
  8. Überwachungssystem nach einem der Ansprüche 1 bis 7, wobei die Zustandsdatenerzeugungseinheit aufweist: einen Anforderungseingangsabschnitt (31), der dazu geeignet ist, die Zustandsdatenanforderung zu empfangen; einen Bestimmungsabschnitt (32, 12), der dazu geeignet ist, die basierend auf dem ersten Bild und dem zweiten Bild bestimmten Zustandsdaten, die einen Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich anzeigen, in Antwort auf den Empfang der Zustandsdatenanforderung durch den Anforderungseingangsabschnitt zuzuführen; und einen Ergebnisausgabeabschnitt (33), der dazu geeignet ist, die durch den Bestimmungsabschnitt zugeführten Zustandsdaten auszugeben.
  9. Überwachungssystem nach Anspruch 8, wobei der Bestimmungsabschnitt den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich basierend auf einem Helligkeitsunterschied zwischen entsprechenden Pixeln des ersten Bildes und des zweiten Bildes in Antwort auf den Empfang der Zustandsdatenanforderung durch den Anforderungseingangsabschnitt bestimmt und die das Bestimmungsergebnis darstellenden bestimmten Zustandsdaten erzeugt.
  10. Überwachungssystem nach Anspruch 8 oder 9, wobei der Ergebnisausgabeabschnitt einen Ergebnisspeicherabschnitt (33a, 53, 6) aufweist, der dazu geeignet ist, die Zustandsdaten zu speichern; und der Ergebnisausgabeabschnitt die durch den Bestimmungsabschnitt zugeführten bestimmten Zustandsdaten als aktuelle Zustandsdaten mit den im Ergebnisspeicherabschnitt als vorangehende Zustandsdaten gespeicherten bestimmten Zustandsdaten vergleicht und die aktuellen Zustandsdaten ausgibt, wenn die aktuellen Zustandsdaten nicht mit den vorangehenden Zustandsdaten übereinstimmen.
  11. Überwachungssystem nach einem der Ansprüche 8 bis 10, wobei die Zustandsdatenerzeugungseinheit aufweist: einen Statistikdatenberechnungsabschnitt (7), der dazu geeignet ist, basierend auf den bestimmten Zustandsdaten Statistikdaten zu berechnen, die einen statistischen Wert eines Ergebnisses der Bestimmung darstellen.
  12. Überwachungssystem nach Anspruch 11, wobei die Statistikdaten einen Prozentanteil eines Abwesenheitszustands darstellen.
  13. Überwachungssystem nach Anspruch 11, wobei die Statistikdaten einen Gedrängegrad darstellen.
  14. Überwachungssystem nach einem der Ansprüche 11 bis 13, wobei die Zustandsdatenerzeugungseinheit die bestimmten Zustandsdaten, die den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich anzeigen, basierend auf dem ersten Bild und dem zweiten Bild erzeugt und zusammen mit Datum- und Uhrzeitdaten im Zustandsdatenspeicherabschnitt speichert; und der Statistikdatenberechnungsabschnitt die Statistikdaten basierend auf einer Zeitfolge der bestimmten Zustandsdaten und einer Zeitfolge der Datum- und Uhrzeitdaten berechnet.
  15. Überwachungssystem nach Anspruch 14, wobei die Statistikdaten eine zeitliche Änderung eines Gedrängegrades darstellen.
  16. Überwachungssystem nach Anspruch 14, wobei die Statistikdaten eine zeitliche Änderung eines Gedrängeortes darstellen.
  17. Überwachungssystem nach Anspruch 14, wobei die Statistikdaten eine zeitliche Änderung eines Personenstroms darstellen.
  18. Überwachungssystem nach einem der Ansprüche 1 bis 17, wobei die Zustandsdatenerzeugungseinheit das zweite Bild permanent vom Kameraabschnitt erhält, um die bestimmten Zustandsdaten zu erzeugen, und in Antwort auf die Zustandsdatenanforderung die aktuellen Zustandsdaten zuführt.
  19. Überwachungssystem nach einem der Ansprüche 1 bis 17, wobei die Zustandsdatenerzeugungseinheit das zweite Bild vom Kameraabschnitt in Antwort auf die Zustandsdatenanforderung erhält und die bestimmten Zustandsdaten erzeugt und zuführt.
  20. Verfahren zum Betreiben des Überwachungssystems nach einem der Ansprüche 1 bis 19, mit den Schritten: (a) Aufnehmen eines vorgegebenen Bereichs für eine Zielperson als ein Bild, wobei ein erstes Bild zu einem ersten Zeitpunkt und ein zweites Bild zu einem dem ersten Zeitpunkt folgenden zweiten Zeitpunkt aufgenommen werden; (b) Ausgeben einer Zustandsdatenanforderung; (c) Bereitstellen von Zustandsdaten für die Zielperson in dem vorgegebenen Bereich basierend auf dem ersten Bild und dem zweiten Bild in Antwort auf die Zustandsdatenanforderung, wobei die Zustandsdaten einen Anwesenheits-/Abwesenheitszustand, einen Sitzungszustand/Nicht-Sitzungszustand, einen Telefongesprächszustand/Nicht-Telefongesprächszustand oder einen Sitzungsabsagezustand/Nicht-Sitzungsabsagezustand aufweisen; und (d) Darstellen von der Antwort auf die Zustandsdatenanforderung abgerufenen Zustandsdaten für den Benutzer.
  21. Überwachungsverfahren nach Anspruch 20, wobei die Zustandsdaten ein Website-Datenformat oder E-Mail-Format aufweisen.
  22. Überwachungsverfahren nach Anspruch 20, wobei Schritt (c) die Schritte aufweist: (e) Empfangen der Zustandsdatenanforderung; (f) Zuführen der Zustandsdaten, die einen Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich basierend auf dem ersten Bild und dem zweiten Bild darstellen, in Antwort auf den Empfang der Zustandsdatenanforderung; und (g) Ausgeben der Zustandsdaten.
  23. Überwachungsverfahren nach Anspruch 22, wobei Schritt (f) die Schritte aufweist: Bestimmen des Anwesenheits-/Abwesenheitszustands der Zielperson im vorgegebenen Bereich basierend auf einem Helligkeitsunterschied zwischen entsprechenden Pixeln des ersten Bildes und des zweiten Bildes in Antwort auf den Empfang der Zustandsdatenanforderung; und Erzeugen und Zuführen der Zustandsdaten basierend auf einem Ergebnis der Bestimmung.
  24. Überwachungsverfahren nach Anspruch 22 oder 23, wobei Schritt (g) die Schritte aufweist: Vergleichen der als aktuelle Zustandsdaten zugeführten Zustandsdaten mit vorangehenden Zustandsdaten; und Ausgeben der aktuellen Zustandsdaten, wenn die aktuellen Zustandsdaten nicht mit den vorangehenden Zustandsdaten übereinstimmen.
  25. Überwachungsverfahren nach einem der Ansprüche 22 bis 24, ferner mit dem Schritt zum Berechnen von Statistikdaten, die eine Statistik der Bestimmungsergebnisse darstellen, basierend auf den Zustandsdaten.
  26. Überwachungsverfahren nach Anspruch 25, wobei die Statistikdaten einen Prozentanteil eines Abwesenheitszustands darstellen.
  27. Überwachungsverfahren nach Anspruch 25, wobei die Statistikdaten einen Gedrängegrad darstellen.
  28. Überwachugnsverfahren nach Anspruch 25, wobei Schritt (f) die Schritte aufweist: Erzeugen der Zustandsdaten, die den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich anzeigen, basierend auf dem ersten Bild und dem zweiten Bild; Halten der Zustandsdaten zusammen mit Datum- und Uhrzeitdaten; und wobei der Berechnungsschritt den Schritt zum Berechnen der Statistikdaten basierend auf einer Zeitfolge der Zustandsdaten und einer Zeitfolge der gespeicherten Datum- und Uhrzeitdaten aufweist.
  29. Überwachungsverfahren nach Anspruch 28, wobei die Statistikdaten eine zeitliche Änderung eines Gedrängegrades darstellen.
  30. Überwachungsverfahren nach Anspruch 28, wobei die Statistikdaten eine zeitliche Änderung eines Gedrängeortes darstellen.
  31. Überwachungsverfahren nach Anspruch 28, wobei die Statistikdaten eine zeitliche Änderung eines Personenstroms darstellen.
  32. Überwachungsverfahren nach einem der Ansprüche 20 bis 31, wobei Schritt (a) permanent ausgeführt wird, und wobei Schritt (c) die Schritte aufweist: Erzeugen der Zustandsdaten vom zweiten Bild; und Zuführen der aktuellen Zustandsdaten in Antwort auf die Zustandsdatenanforderung.
  33. Überwachungsverfahren nach einem der Ansprüche 20 bis 31, wobei Schritt (a) zum Aufnehmen des vorgegebenen Bereichs für die Zielperson in Antwort auf die Zustandsdatenanforderung ausgeführt wird; und wobei Schritt (c) die Schritte aufweist: Erhalten des zweiten Bildes in Antwort auf die Zustandsdatenanforderung; und Erzeugen und Zuführen der Zustandsdaten basierend auf dem ersten Bild und dem zweiten Bild.
  34. Aufzeichnungsmedium, in dem ein Programm zum Ausführen des Überwachungsverfahrens nach einem der Ansprüche 20 bis 33 gespeichert ist, mit den Programmschritten: (a) Aufnehmen eines vorgegebenen Bereichs für eine Zielperson als ein Bild, wobei ein erstes Bild zu einem ersten Zeitpunkt und ein zweites Bild zu einem dem ersten Zeitpunkt folgenden zweiten Zeitpunkt aufgenommen werden; und (b) Bereitstellen der Zustandsdaten für die Zielperson in dem vorgegebenen Bereich basierend auf dem ersten Bild und dem zweiten Bild in Antwort auf die Zustandsdatenanforderung, wobei die Zustandsdaten einen Anwesenheits-/Abwesenheitszustand, einen Sitzungs-/Nicht-Sitzungszustand, einen Telefongesprächs-/Nicht-Telefongesprächszustand oder einen Sitzungsabsage-/Nicht-Sitzungsabsagezustand aufweisen.
  35. Aufzeichnungsmedium nach Anspruch 34, wobei die Zustandsdaten ein Website-Datenformat oder ein E-Mail-Format aufweisen.
  36. Aufzeichnungsmedium nach Anspruch 34 oder 35, wobei Schritt (b) die Schritte aufweist: (c) Empfangen der Zustandsdatenanforderung; (d) Zuführen der Zustandsdaten, die einen Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich, basierend auf dem ersten Bild und dem zweiten Bild darstellen, in Antwort auf den Empfang der Zustandsdatenanforderung; und (e) Ausgeben der Zustandsdaten.
  37. Aufzeichnungsmedium nach Anspruch 36, wobei Schritt (d) die Schritte aufweist: Bestimmen des Anwesenheits-/Abwesenheitszustands der Zielperson im vorgegebenen Bereich basierend auf einem Helligkeitsunterschied zwischen entsprechenden Pixeln des ersten Bildes und des zweiten Bildes in Antwort auf den Empfang der Zustandsdatenanforderung; und Erzeugen und Zuführen der Zustandsdaten basierend auf dem Bestimmungsergebnis.
  38. Aufzeichnungsmedium nach Anspruch 36 oder 37, wobei das Verfahren einen Schritt (f) zum Ausgeben der zugeführten Zustandsdaten aufweist, und wobei Schritt (f) die Schritte aufweist: Vergleichen der als aktuelle Zustandsdaten zugeführten Zustandsdaten mit vorangehenden Zustandsdaten; und Ausgeben der aktuellen Zustandsdaten, wenn die aktuellen Zustandsdaten nicht mit den vorangehenden Zustandsdaten übereinstimmen.
  39. Aufzeichnungsmedium nach einem der Ansprüche 36 bis 38, wobei das Verfahren ferner den Schritt zum Berechnen von Statistikdaten aufweist, die eine Statistik der Bestimmungsergebnisse darstellen, basierend auf den Zustandsdaten.
  40. Aufzeichnungsmedium nach Anspruch 39, wobei die Statistikdaten einen Prozentanteil eines Abwesenheitszustands darstellen.
  41. Aufzeichnungsmedium nach Anspruch 39, wobei die Statistikdaten einen Gedrängegrad darstellen.
  42. Aufzeichnungsmedium nach Anspruch 39, wobei Schritt (d) die Schritte aufweist: Erzeugen der Zustandsdaten, die den Anwesenheits-/Abwesenheitszustand der Zielperson im vorgegebenen Bereich anzeigen, basierend auf dem ersten Bild und dem zweiten Bild; Halten der Zustandsdaten zusammen mit Datum- und Uhrzeitdaten; und wobei der Berechnungsschritt den Schritt zum Berechnen der Statistikdaten basierend auf einer Zeitfolge der Zustandsdaten und einer Zeitfolge der Datum- und Uhrzeitdaten aufweist, die in einem Zustandsdatenspeicherabschnitt gespeichert sind.
  43. Aufzeichnungsmedium nach Anspruch 42, wobei die Statistikdaten eine zeitliche Änderung eines Gedrängegrades darstellen.
  44. Aufzeichnungsmedium nach Anspruch 42, wobei die Statistikdaten eine zeitliche Änderung eines Gedrängeortes darstellen.
  45. Aufzeichnungsmedium nach Anspruch 42, wobei die Statistikdaten eine zeitliche Änderung eines Personenstroms darstellen.
  46. Aufzeichnungsmedium nach einem der Ansprüche 34 bis 45, wobei Schritt (a) permanent ausgeführt wird, und wobei Schritt (b) die Schritte aufweist: Erzeugen der Zustandsdaten vom zweiten Bild; und Zuführen der aktuellen Zustandsdaten in Antwort auf die Zustandsdatenanforderung.
  47. Aufzeichnungsmedium nach einem der Ansprüche 34 bis 45, wobei Schritt (a) zum Aufnehmen des vorgegebenen Bereichs für die Zielperson in Antwort auf die Zustandsdatenanforderung ausgeführt wird; und wobei Schritt (b) die Schritte aufweist: Erhalten des zweiten Bildes in Antwort auf die Zustandsdatenanforderung; und Erzeugen und Zuführen der Zustandsdaten basierend auf dem ersten Bild und dem zweiten Bild.
DE60220892T 2001-02-26 2002-02-26 Überwachungssystem und überwachungsverfahren Expired - Lifetime DE60220892T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001051186 2001-02-26
JP2001051186A JP4045748B2 (ja) 2001-02-26 2001-02-26 モニタリングシステムおよびその方法
PCT/JP2002/001754 WO2002073560A1 (fr) 2001-02-26 2002-02-26 Systeme de surveillance et procede de surveillance

Publications (2)

Publication Number Publication Date
DE60220892D1 DE60220892D1 (de) 2007-08-09
DE60220892T2 true DE60220892T2 (de) 2008-02-28

Family

ID=18912022

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60220892T Expired - Lifetime DE60220892T2 (de) 2001-02-26 2002-02-26 Überwachungssystem und überwachungsverfahren

Country Status (5)

Country Link
US (1) US20040095467A1 (de)
EP (1) EP1372123B1 (de)
JP (1) JP4045748B2 (de)
DE (1) DE60220892T2 (de)
WO (1) WO2002073560A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4371838B2 (ja) * 2004-02-04 2009-11-25 富士通株式会社 情報通知装置
JP2005275890A (ja) * 2004-03-25 2005-10-06 Nec Corp プレゼンス情報発行装置およびシステムならびにプログラム
EP1696397A3 (de) * 2005-02-23 2007-10-24 Prospect SA Verfahren und Vorrichtung zur Überwachung
DE102005044857A1 (de) * 2005-09-13 2007-03-22 Siemens Ag Verfahren und Anordnung zum Betreiben eines Gruppendienstes in einem Kommunikationsnetz
US7940955B2 (en) * 2006-07-26 2011-05-10 Delphi Technologies, Inc. Vision-based method of determining cargo status by boundary detection
JP2008071240A (ja) * 2006-09-15 2008-03-27 Fuji Xerox Co Ltd 行動効率化支援装置および方法
US8498497B2 (en) * 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
WO2009107618A1 (ja) * 2008-02-25 2009-09-03 日本電気株式会社 空間情報管理システムおよび方法ならびにプログラム
KR100924703B1 (ko) 2008-03-07 2009-11-03 아주대학교산학협력단 도서관의 좌석 관리를 위하여 사용 가능한, 복수의 사람에의하여 공동으로 사용되는 물건의 점유 상태를 관리하는방법 및 장치
JP5543180B2 (ja) * 2009-01-07 2014-07-09 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
US10291468B2 (en) * 2015-05-11 2019-05-14 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Managing computing devices in a computing system
WO2018193813A1 (ja) 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 滞在状況表示システムおよび滞在状況表示方法
TWI672666B (zh) * 2017-08-09 2019-09-21 宏碁股份有限公司 圖像資料處理的方法及其裝置
JP6413068B1 (ja) * 2017-11-29 2018-10-31 株式会社 プロネット 情報処理システム、情報処理方法、情報処理プログラム、および情報処理装置
JP6648094B2 (ja) * 2017-11-29 2020-02-14 アイタックソリューションズ株式会社 席情報処理システム、並びに、席情報取得装置及びプログラム、並びに、席情報提供装置及びプログラム
JP6941805B2 (ja) * 2018-02-22 2021-09-29 パナソニックIpマネジメント株式会社 滞在状況表示システムおよび滞在状況表示方法
US11017544B2 (en) * 2018-07-31 2021-05-25 Ricoh Company, Ltd. Communication terminal, communication system, communication control method, and recording medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3115132B2 (ja) * 1992-11-24 2000-12-04 日本電信電話株式会社 動物体の存在判定方法
JP3216280B2 (ja) * 1992-12-11 2001-10-09 松下電器産業株式会社 空気調和機の制御装置と画像処理装置の応用機器
JPH0758823A (ja) * 1993-08-12 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> 電話発信システム
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
US5751346A (en) * 1995-02-10 1998-05-12 Dozier Financial Corporation Image retention and information security system
JPH08249545A (ja) * 1995-03-09 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 通信支援システム
US6448978B1 (en) * 1996-09-26 2002-09-10 Intel Corporation Mechanism for increasing awareness and sense of proximity among multiple users in a network system
US5892856A (en) * 1996-12-23 1999-04-06 Intel Corporation Method of presence detection using video input
JPH11195059A (ja) * 1997-12-26 1999-07-21 Matsushita Electric Works Ltd 在不在管理装置
EP0967584B1 (de) * 1998-04-30 2004-10-20 Texas Instruments Incorporated Automatische Videoüberwachungsanlage
JP2000078276A (ja) * 1998-08-27 2000-03-14 Nec Corp 在席管理システム及び在席管理方法及び記録媒体
US6628835B1 (en) * 1998-08-31 2003-09-30 Texas Instruments Incorporated Method and system for defining and recognizing complex events in a video sequence
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual

Also Published As

Publication number Publication date
JP4045748B2 (ja) 2008-02-13
EP1372123A4 (de) 2004-12-29
DE60220892D1 (de) 2007-08-09
JP2002260110A (ja) 2002-09-13
EP1372123A1 (de) 2003-12-17
US20040095467A1 (en) 2004-05-20
WO2002073560A1 (fr) 2002-09-19
EP1372123B1 (de) 2007-06-27

Similar Documents

Publication Publication Date Title
DE60220892T2 (de) Überwachungssystem und überwachungsverfahren
DE69921237T2 (de) Automatische Videoüberwachungsanlage
DE69839195T2 (de) Ferndiagnoseeinrichtung
DE10214079B4 (de) WEB-Camming und Bandbreitensteuerung auf Grundlage der Bewegungs- und Audioerkennung
DE60038460T2 (de) Anonymität in einem präsenzverarbeitungssystem
DE60300162T2 (de) Fernüberwachungssystem und -verfahren
DE60213551T2 (de) Einfach-zu-Mehrfachkommunikation-Konversionsvorrichtung, -verfahren und -Computerprogrammprodukt sowie Überwachungssystem
DE60318226T2 (de) Bilderkennung
DE69831187T2 (de) Datenübertragung über ein Rechnernetzwerk
DE60226246T2 (de) Verfahren, benutzereinheit und computerlesbares medium mit gespeicherten anweisungen zum verwalten der kommunikation in einem system
DE102009043277B4 (de) Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen
DE69202682T2 (de) System und Verfahren zur Detektieren der unerlaubten Benutzung von Identifizierern für Rechnerzugriff.
DE60217907T2 (de) Lokale cache-speicherung von bildern für online-konferenzprogramme
DE68921715T2 (de) Konferenzverbindungssystem.
DE112019000931T5 (de) Anwesenheitsstatus-Anzeigesystem und Anwesenheitsstatus-Anzeigeverfahren
DE102005045077A1 (de) Ein Verfahren und eine Vorrichtung für verteilte Analysen von Bildern
DE112004000349T5 (de) Betriebsverwaltungssystem
DE19726292A1 (de) Verfahren zur geäuschlosen Überwachung von Telefongesprächen
EP2922015A1 (de) Verfahren und Vorrichtung zur Steuerung einer Konferenz
DE60318263T2 (de) Kommunikationsanfrageverarbeitungssystem und -verfahren
DE20221997U1 (de) System für Videokonferenzdienste und Servicezentrum
DE102006054284A1 (de) Verfahren und System für ein Erreichbarkeitsmanagement
DE60320099T2 (de) Vorrichtung und verfahren zum verteilen von gestreamten echtzeit-informationen zwischen clients
DE10310635A1 (de) Überwachungsvorrichtung
DE20320808U1 (de) Informationsprozessor, Informationserfassungssystem, Kommunikationssystem, Vermittlungsgerät und Kommunikationsgerät

Legal Events

Date Code Title Description
8364 No opposition during term of opposition