JP4438344B2 - Monitoring system and method, information processing apparatus and method, recording medium, and program - Google Patents

Monitoring system and method, information processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP4438344B2
JP4438344B2 JP2003278918A JP2003278918A JP4438344B2 JP 4438344 B2 JP4438344 B2 JP 4438344B2 JP 2003278918 A JP2003278918 A JP 2003278918A JP 2003278918 A JP2003278918 A JP 2003278918A JP 4438344 B2 JP4438344 B2 JP 4438344B2
Authority
JP
Japan
Prior art keywords
sensor
state
event
point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003278918A
Other languages
Japanese (ja)
Other versions
JP2005044209A (en
Inventor
哲二郎 近藤
剛 田中
義教 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003278918A priority Critical patent/JP4438344B2/en
Publication of JP2005044209A publication Critical patent/JP2005044209A/en
Application granted granted Critical
Publication of JP4438344B2 publication Critical patent/JP4438344B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視システムおよび方法、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、簡単かつ確実にイベントを検知および通知し、カメラ等の消費電力を抑えることができるようにした監視システムおよび方法、情報処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to a monitoring system and method, an information processing apparatus and method, a recording medium, and a program, and in particular, a monitoring system that can detect and notify an event easily and reliably and suppress power consumption of a camera or the like. And a method, an information processing apparatus and method, a recording medium, and a program.

従来、ホームセキュリティシステムとして、撮像装置から送信される監視画像を表示するモニタTV(Television)を見ることにより、センサ情報を知る手法が提案されている(例えば、特許文献1参照)。   Conventionally, as a home security system, a method of knowing sensor information by viewing a monitor TV (Television) that displays a monitoring image transmitted from an imaging device has been proposed (see, for example, Patent Document 1).

また、赤外線センサと画像センサが組み合わされた監視装置が、人体の有無および画策の有無を判定することにより、監視領域内に進入した人体を検出する手法が提案されている(例えば、特許文献2参照)。   In addition, a method has been proposed in which a monitoring device in which an infrared sensor and an image sensor are combined detects a human body that has entered a monitoring area by determining the presence or absence of a human body and the presence or absence of a plan (for example, Patent Document 2). reference).

さらに、複数台のインテリジェントカメラを有する監視カメラシステムが、監視領域の異常を検知し、検知した映像や音声を記録または再生する手法が提案されている(例えば、特許文献3参照)。   Furthermore, a technique has been proposed in which a surveillance camera system having a plurality of intelligent cameras detects an abnormality in a surveillance area and records or reproduces the detected video and audio (for example, see Patent Document 3).

これらの特許文献1乃至特許文献3に記載の発明においては、主に、特定の場所または特定の異常(イベント)が検出される。   In the inventions described in these Patent Documents 1 to 3, a specific place or a specific abnormality (event) is mainly detected.

特開平8−124078号公報Japanese Patent Laid-Open No. 8-124078 特開2000−339554号公報JP 2000-339554 A 特開平7−212748号公報JP-A-7-2127748

しかしながら、これらの特許文献1乃至特許文献3に記載されている発明では、センサ(撮像装置、監視装置、または複数台のインテリジェントカメラ)を設置した際の調整が煩わしいばかりでなく、一度設置してしまうと、別の場所に移動させることが困難である課題があった。   However, in the inventions described in these Patent Documents 1 to 3, not only the adjustment when installing the sensor (imaging device, monitoring device, or a plurality of intelligent cameras) is troublesome, but it is also necessary to install it once. As a result, there is a problem that it is difficult to move to another location.

また、従来使用されている無線カメラは、常時、画像および音声等を送信し続ける為、バッテリを使ったシステムに適用することが困難である課題があった。   Moreover, since the wireless camera used conventionally always transmits an image, an audio | voice, etc., there existed a subject that it was difficult to apply to the system using a battery.

本発明はこのような状況に鑑みてなされたものであり、簡単かつ確実にイベントを検出および通知し、カメラ等の消費電力を抑えることができるようにするものである。   The present invention has been made in view of such a situation, and it is intended to detect and notify an event easily and reliably and to suppress power consumption of a camera or the like.

本発明の監視システムは、所定方向に並べられた複数のセンサからセンサデータを取得する取得手段と、取得手段により取得されたセンサデータと定常時のデータを比較し、センサが反応を開始した点、またはセンサの反応が終了した点を検出することでセンサの状態を検出する検出手段と、検出手段により検出された、センサが反応を開始した点と、センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、またはセンサの反応が終了した点とセンサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、センサの状態に関する状態データを記述する状態データ記述手段と、イベントを通知すると判定された場合、撮影手段の電源をオンさせ、通知画像を撮影させる撮影制御手段と、状態データ記述手段により記述された状態データと判定テーブルを比較し、イベントを通知するか否かを判定する判定手段と、判定手段によりイベントを通知すると判定された場合、イベントを通知するための通知画像を含む呈示データを構築する構築手段と、構築手段により構築された呈示データに基づく呈示を行う呈示手段とを備えることを特徴とする。 In the monitoring system of the present invention, the acquisition means for acquiring sensor data from a plurality of sensors arranged in a predetermined direction, the sensor data acquired by the acquisition means and the data at the time of steady state are compared, and the sensor starts to react. Or a detecting means for detecting the state of the sensor by detecting a point at which the reaction of the sensor has ended, a point detected by the detecting means at which the sensor has started a reaction, and a next sensor adjacent to the sensor reacting. A state number defined based on the starting point, or a state number defined based on the point at which the sensor response has ended and the point at which the next sensor adjacent to the sensor has ended. a state data describing means for describing the status data, when it is determined to notify the event to turn on the power of the imaging means, and imaging control means for taking a notification image, Comparing the status data and the determination table is described by state data describing means, determination means for determining whether or not to notify the event, if it is determined to notify the event by determination means, a notification for notifying the event It comprises a construction means for constructing presentation data including an image , and a presentation means for performing presentation based on the presentation data constructed by the construction means.

前記呈示手段による呈示に基づいて、ユーザからの判断の入力を取得する入力取得手段と、入力取得手段により取得されたユーザからの判断の入力、および、状態データ記述手段により記述された状態データに基づいて、判定テーブルを作成する作成手段とをさらに設けるようにすることができる。   Based on the presentation by the presenting means, the input acquisition means for acquiring the judgment input from the user, the judgment input from the user acquired by the input acquisition means, and the status data described by the status data description means Based on this, it is possible to further provide creation means for creating the determination table.

前記複数のセンサは、フォトセンサであるようにすることができる。   The plurality of sensors may be photosensors.

本発明の監視方法、第1の記録媒体に記録されているプログラム、または第1のプログラムは、所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、取得ステップの処理により取得されたセンサデータと定常時のデータを比較し、センサが反応を開始した点、またはセンサの反応が終了した点を検出することでセンサの状態を検出する検出ステップと、検出ステップの処理により検出された、センサが反応を開始した点と、センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、またはセンサの反応が終了した点とセンサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、センサの状態に関する状態データを記述する状態データ記述ステップと、状態データ記述ステップの処理により記述された状態データと判定テーブルを比較し、イベントを通知するか否かを判定する判定ステップと、イベントを通知すると判定された場合、撮影手段の電源をオンさせ、複数のセンサにより監視される領域の通知画像を撮影手段に撮影させる撮影制御ステップと、判定ステップの処理によりイベントを通知すると判定された場合、イベントを通知するための通知画像を含む呈示データを構築する構築ステップと、構築ステップの処理により構築された呈示データに基づく呈示を行う呈示ステップとを含むことを特徴とする。 The monitoring method of the present invention , the program recorded on the first recording medium, or the first program is acquired by an acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction, and processing of the acquisition step The detected sensor data is compared with the steady-state data, and the detection step detects the sensor state by detecting the point at which the sensor started to react or the point at which the sensor reaction ended, and the detection step detects The state number defined based on the point at which the sensor started to react and the point at which the next sensor adjacent to the sensor started to respond, or the point at which the sensor reaction ended and the next sensor adjacent to the sensor reaction of include state number defined on the basis of the point ended, the state data describing the steps describing the state data relating to the state of the sensors, the state Comparing the status data and the determination table is described by treatment over data description step, a determining step of determining whether or not to notify the event, if it is determined that notifies an event, turns on the power of the imaging means, Build a presentation data including a notification image for notifying an event when it is determined to notify the event by a shooting control step that causes the shooting means to take a notification image of a region monitored by a plurality of sensors and processing of the determination step And a presenting step for presenting based on the present data constructed by the process of the constructing step.

本発明の情報処理装置は、所定方向に並べられた複数のセンサからセンサデータを取得する取得手段と、複数のセンサにより監視される領域の通知画像を撮影する撮影手段と、取得手段により取得されたセンサデータと定常時のデータを比較し、センサが反応を開始した点、またはセンサの反応が終了した点を検出することでセンサの状態を検出する検出手段と、検出手段により検出された、センサが反応を開始した点と、センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、またはセンサの反応が終了した点とセンサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、センサの状態に関する状態データを記述する状態データ記述手段と、状態データ記述手段により記述された状態データと判定テーブルを比較し、イベントを通知する否かを判定する判定手段と、イベントを通知すると判定された場合、撮影手段の電源をオンさせ、通知画像を撮影させる撮影制御手段と、判定手段によりイベントを通知すると判定された場合、イベントと、イベントを通知するための通知画像とを他の装置に送信する送信手段とを備えることを特徴とする。 The information processing apparatus of the present invention is acquired by an acquisition unit that acquires sensor data from a plurality of sensors arranged in a predetermined direction, an imaging unit that captures a notification image of an area monitored by the plurality of sensors, and an acquisition unit. The sensor data is compared with normal data, and the detection means detects the sensor state by detecting the point at which the sensor has started to react or the point at which the sensor reaction has ended, and is detected by the detection means . The state number defined based on the point at which the sensor started reacting and the point at which the next sensor adjacent to the sensor started reacting, or the response of the next sensor adjacent to the sensor at the point where the sensor reaction ended. includes state number defined on the basis of the point ended, the state data describing means for describing the status data relating to the state of the sensor, described by the state data describing means Comparing the status data and the determination table, determining means for whether to notify an event, if it is determined that notifies an event, it turns on the power of the imaging means, and imaging control means for taking a notification image, determination When it is determined that the event is notified by the means, the apparatus includes a transmission means for transmitting the event and a notification image for notifying the event to another device.

前記他の装置から供給された判定テーブルを取得し、保持する判定テーブル保持手段をさらに設けるようにすることができる。   A determination table holding means for acquiring and holding the determination table supplied from the other device may be further provided.

前記送信手段は、状態データ記述手段により記述された状態データを他の装置に送信するようにすることができる。   The transmission means may transmit the state data described by the state data description means to another device.

前記複数のセンサは、フォトセンサであるようにすることができる。   The plurality of sensors may be photosensors.

本発明の情報処理方法、第2の記録媒体に記録されているプログラム、または第2のプログラムは、所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、取得ステップの処理により取得されたセンサデータと定常時のデータを比較し、センサが反応を開始した点、またはセンサの反応が終了した点を検出することでセンサの状態を検出する検出ステップと、検出ステップの処理により検出された、センサが反応を開始した点と、センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、またはセンサの反応が終了した点とセンサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、センサの状態に関する状態データを記述する状態データ記述ステップと、状態データ記述ステップの処理により記述された状態データと判定テーブルを比較し、イベントを通知する否かを判定する判定ステップと、イベントを通知すると判定された場合、撮影手段の電源をオンさせ、複数のセンサにより監視される領域の通知画像を撮影手段に撮影させる撮影制御ステップと、判定ステップの処理によりイベントを通知すると判定された場合、イベントと、イベントを通知するための通知画像とを他の装置に送信する送信ステップとを含むことを特徴とする。 An information processing method, a program recorded on a second recording medium, or a second program according to the present invention includes an acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction, and processing of the acquisition step. By comparing the acquired sensor data with the steady-state data and detecting the point at which the sensor started to react or the point at which the sensor's reaction ended to detect the sensor state, and the detection step process The detected state number based on the point at which the sensor started reacting and the point at which the next sensor adjacent to the sensor started reacting, or the point at which the sensor reaction ended and the next adjacent to the sensor the reaction of the sensor include a state number which is defined on the basis of the point ended, the state data describing the steps describing the state data relating to the state of the sensor, Comparing the status data and the determination table is described by the process of the state data description step, a determination step of determining whether to notify an event, if it is determined that notifies an event, turns on the power of the imaging means, a plurality A shooting control step that causes the shooting means to take a notification image of the area monitored by the sensor , and if it is determined to notify the event by the processing of the determination step, the event and the notification image for notifying the event And a transmission step of transmitting to the apparatus.

第1の本発明においては、所定方向に並べられた複数のセンサからセンサデータが取得され、取得されたセンサデータと定常時のデータが比較されてセンサが反応を開始した点、またはセンサの反応が終了した点が検出されることでセンサの状態が検出され、検出された、センサが反応を開始した点と、センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、またはセンサの反応が終了した点とセンサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、センサの状態に関する状態データが記述され、記述された状態データと判定テーブルが比較されてイベントを通知するか否かが判定され、イベントを通知すると判定された場合、撮影手段の電源がオンされ、複数のセンサにより監視される領域の通知画像が撮影され、イベントを通知すると判定された場合、イベントを通知するための通知画像を含む呈示データが構築されて呈示される。 In the first aspect of the present invention, sensor data is acquired from a plurality of sensors arranged in a predetermined direction, and the acquired sensor data is compared with data at normal time , or the sensor starts to react, or the sensor response The state of the sensor is detected by detecting the point at which ending, and the state defined based on the detected point at which the sensor started to react and the point at which the next sensor adjacent to the sensor started to react State that describes and describes state data related to the state of the sensor, including a number or state number that is defined based on the point at which the reaction of the sensor has ended and the point at which the next sensor adjacent to the sensor has ended. data and decision table is compared is determined whether to notify the event, if it is determined that notifies an event, the power of the imaging means is turned on, a plurality of sensors Notification image of the region to be viewed is photographed, if it is determined that notifies the event, presentation data including a notification image for notifying the event is presented is built.

第2の本発明においては、所定方向に並べられた複数のセンサからセンサデータが取得され、取得されたセンサデータと定常時のデータが比較されてセンサが反応を開始した点、またはセンサの反応が終了した点が検出されることでセンサの状態が検出され、検出された、センサが反応を開始した点と、センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、またはセンサの反応が終了した点とセンサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、センサの状態に関する状態データが記述され、記述された状態データと判定テーブルが比較されてイベントを通知する否かが判定され、イベントを通知すると判定された場合、撮影手段の電源がオンされ、複数のセンサにより監視される領域の通知画像が撮影手段により撮影され、イベントを通知すると判定された場合、イベントと、イベントを通知するための通知画像とが他の装置に送信される。 In the second aspect of the present invention, sensor data is acquired from a plurality of sensors arranged in a predetermined direction, and the acquired sensor data is compared with data at the time of steady state , or the sensor response is started, or the sensor response The state of the sensor is detected by detecting the point at which ending, and the state defined based on the detected point at which the sensor started to react and the point at which the next sensor adjacent to the sensor started to react State that describes and describes state data related to the state of the sensor, including a number or state number that is defined based on the point at which the reaction of the sensor has ended and the point at which the next sensor adjacent to the sensor has ended. whether the data and the determination table in events being compared is determined, if it is determined that notifies an event, the power of the imaging means is turned on, audit by a plurality of sensors Notification image of the area is captured by the imaging means, when it is determined that notifies an event, an event, a notification image for notifying the event is transmitted to the other device.

第1の本発明によれば、検知したイベントを通知することができる。特に、ユーザの判断の入力に基づいて、簡単かつ確実にイベントを検出し、通知することが可能となる。また、無駄な消費電力を抑えることができる。   According to the first aspect of the present invention, a detected event can be notified. In particular, it is possible to easily and reliably detect and notify an event based on a user's judgment input. Moreover, useless power consumption can be suppressed.

第2の本発明によれば、検知したイベントを通知することができる。特に、検知したイベントを他の装置に通知するとともに、無駄な消費電力を抑えることが可能となる。   According to the second aspect of the present invention, a detected event can be notified. In particular, it is possible to notify other devices of the detected event and to reduce wasteful power consumption.

以下に、本発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明を適用した監視システム10の構成例を表している。この構成例においては、図中左側の監視領域側にマルチセンサカメラ1が備えられており、図中右側の通知・呈示側に、処理ボックス2、呈示部3、および、処理ボックス2を遠隔操作するためのリモートコントローラ4が備えられている。マルチセンサカメラ1と処理ボックス2は、無線アンテナ1Aと無線アンテナ2Aを介して、相互に無線通信を行なう。処理ボックス2とリモートコントローラ4は、相互に無線通信あるいは赤外線通信を行う。処理ボックス2と呈示部3は、バスなどの有線あるいは無線により接続されている。なお、マルチセンサカメラ1と処理ボックス2は、無線通信に限られるものではなく、有線による通信であってもよい。   FIG. 1 shows a configuration example of a monitoring system 10 to which the present invention is applied. In this configuration example, the multi-sensor camera 1 is provided on the left monitoring area side in the figure, and the processing box 2, the presentation unit 3, and the processing box 2 are remotely operated on the notification / presentation side on the right side in the figure. A remote controller 4 is provided. The multi-sensor camera 1 and the processing box 2 perform wireless communication with each other via the wireless antenna 1A and the wireless antenna 2A. The processing box 2 and the remote controller 4 perform wireless communication or infrared communication with each other. The processing box 2 and the presentation unit 3 are connected by a wired or wireless connection such as a bus. The multi-sensor camera 1 and the processing box 2 are not limited to wireless communication, and may be wired communication.

マルチセンサカメラ1は、イベントを監視したい領域(必要な場所)に設置されている。マルチセンサカメラ1には、例えば、図2に示されるように、CCD(Charge Coupled Device)カメラ21、フォトセンサ22−1乃至22−3が設けられており、各センサは、図示せぬバッテリにより駆動される。   The multi-sensor camera 1 is installed in an area (necessary place) where an event is to be monitored. For example, as shown in FIG. 2, the multi-sensor camera 1 is provided with a CCD (Charge Coupled Device) camera 21 and photo sensors 22-1 to 22-3. Each sensor is operated by a battery (not shown). Driven.

CCDカメラ21は、監視領域(視野角)内の状況を随時撮影する。その詳細は後述するが、マルチセンサカメラ1は、フォトセンサ22−1乃至22−3で検出されたイベントに基づいて、イベントデータを通知するか否かを判定し、イベントデータを通知すると判定した場合、CCDカメラ21で撮影された画像データ(イベントデータ)を処理ボックス2に送信する。   The CCD camera 21 captures the situation in the monitoring area (viewing angle) as needed. Although the details will be described later, the multi-sensor camera 1 determines whether or not to notify the event data based on the event detected by the photosensors 22-1 to 22-3, and determines to notify the event data. In this case, image data (event data) captured by the CCD camera 21 is transmitted to the processing box 2.

フォトセンサ22−1乃至22−3は、それぞれ、図3に示されるように、自己が監視することが可能な領域31−1乃至31−3内の平均輝度を検知信号として出力しており、人物、動物、その他の監視対象(以下においては、人物で代表する)が領域31−1乃至31−3内に進入または退出したことに応じて、その出力が変化する。以下、フォトセンサ22−1乃至22−3が監視することが可能な領域31−1乃至31−3を、単に、監視領域31−1乃至31−3と記載する。なお、フォトセンサ22−1乃至22−3は、隣り合う監視領域31−1乃至31−3がそれぞれ重なるように配置されている。本実施の形態では、3つのフォトセンサ22−1乃至22−3がマルチセンサカメラ1に搭載される場合を例に挙げて説明するが、その数は、3つに限られるものではない。   As shown in FIG. 3, each of the photosensors 22-1 to 22-3 outputs, as a detection signal, the average luminance in the areas 31-1 to 31-3 that can be monitored by the photosensors 22-1 to 22-3. The output changes in response to a person, animal, or other monitoring target (represented by a person in the following) entering or leaving the area 31-1 to 31-3. Hereinafter, the areas 31-1 to 31-3 that can be monitored by the photosensors 22-1 to 22-3 are simply referred to as monitoring areas 31-1 to 31-3. Note that the photosensors 22-1 to 22-3 are arranged so that the adjacent monitoring areas 31-1 to 31-3 overlap each other. In the present embodiment, the case where the three photosensors 22-1 to 22-3 are mounted on the multi-sensor camera 1 will be described as an example, but the number is not limited to three.

図1の説明に戻る。マルチセンサカメラ1は、イベントを通知すると判定した場合、無線アンテナ1Aを介して、イベント呈示に必要なデータを処理ボックス2に送信する。   Returning to the description of FIG. When the multi-sensor camera 1 determines to notify the event, the multi-sensor camera 1 transmits data necessary for event presentation to the processing box 2 via the wireless antenna 1A.

処理ボックス2は、マルチセンサカメラ1から送信されてきたイベント呈示に必要なデータを、無線アンテナ2Aを介して受信し、その受信データに基づいて呈示画像および音声を構築し、呈示部3およびリモートコントローラ4に供給または送信して、イベントを呈示させる。   The processing box 2 receives data necessary for event presentation transmitted from the multi-sensor camera 1 via the wireless antenna 2A, constructs a presentation image and sound based on the received data, and presents the presentation unit 3 and the remote Supplied or transmitted to the controller 4 to present an event.

呈示部3は、例えば、一般のテレビジョン受像機とされ、イベントが発生していない場合(通常の場合)、一般の視聴信号(放送信号に基づく映像)を表示し、イベントが発生した場合、一般の視聴信号の一部分にイベント画像が挿入されたピクチャインピクチャの画像を表示する。なお、呈示部3は、テレビジョン受像機に限定されるものではなく、専用のモニタでもよい。また、表示される画像は、ピクチャインピクチャの画像ではなく、画面全体の画像としてもよい。   The presentation unit 3 is, for example, a general television receiver, and when an event has not occurred (normal case), a general viewing signal (video based on a broadcast signal) is displayed, and when an event has occurred, A picture-in-picture image in which an event image is inserted into a part of a general viewing signal is displayed. The presenting unit 3 is not limited to a television receiver, and may be a dedicated monitor. The displayed image may be an image of the entire screen, not a picture-in-picture image.

ユーザは、呈示部3に呈示されたイベントに対して、判断を行ない、その判断の結果に基づいて、リモートコントローラ4から各種指令を入力することができる。例えば、いま発生したイベントを今後も知らせて欲しいときは、その旨を、OKボタン(図示せず)を操作し、いま発生したイベントを今後は知らせなくてもよいときは、その旨を、NGボタン(図示せず)を操作して指示入力することができる。このユーザからの判断の入力に基づいて、処理ボックス2で作成される、イベントを通知するか否かを判定する際に用いられる通知判定テーブル(後述)が時間とともに変化するため、ユーザが監視システム10を使用する度にユーザが意図するイベントのみが検知され、通知されるようになる。   The user can make a determination on the event presented on the presentation unit 3 and can input various commands from the remote controller 4 based on the result of the determination. For example, if you want to continue to notify the event that has occurred, operate the OK button (not shown), and if you do not need to notify the event that has just occurred, indicate that An instruction can be input by operating a button (not shown). Since a notification determination table (described later) created in the processing box 2 and used to determine whether or not to notify an event changes with time based on the determination input from the user, the user can monitor the system. Each time 10 is used, only the event intended by the user is detected and notified.

またマルチセンサカメラ1に搭載されるCCDカメラ21は、イベントを通知すると判定された場合にのみ動作するため、無駄な消費電力を抑えることができる。   In addition, the CCD camera 21 mounted on the multi-sensor camera 1 operates only when it is determined to notify the event, so that useless power consumption can be suppressed.

図4は、図1に示した監視システム10の機能的構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a functional configuration example of the monitoring system 10 illustrated in FIG. 1.

マルチセンサカメラ1のCCDカメラ21は、監視領域内の状況を随時撮影し、画像信号を通知画像データとしてスイッチ47を介して送信部49に供給する。   The CCD camera 21 of the multi-sensor camera 1 captures the situation in the monitoring area as needed, and supplies the image signal as notification image data to the transmission unit 49 via the switch 47.

フォトセンサ22−1乃至22−3は、それぞれ、監視領域31−1乃至31−3(図3)内の平均輝度をフォトセンサ値としてA/D(Analog to Digital)変換部41に供給する。   The photosensors 22-1 to 22-3 supply the average luminance in the monitoring areas 31-1 to 31-3 (FIG. 3) to the A / D (Analog to Digital) conversion unit 41 as photosensor values, respectively.

ここで、図5を参照して、フォトセンサ22−1乃至22−3が出力する検知信号の出力レベルの変化と人物(監視対象)の行動との関係について説明する。同図において、縦軸はフォトセンサ22−1乃至22−3が出力する検知信号の出力レベルを表わし、横軸は時間を表わしている。また検知信号81−1は、フォトセンサ22−1が出力する検知信号を表わし、検知信号81−2は、フォトセンサ22−2が出力する検知信号を表わしている。なお、フォトセンサ22−3が出力する検知信号(図示せず)の出力レベルは0となっている。   Here, with reference to FIG. 5, the relationship between the change in the output level of the detection signal output from the photosensors 22-1 to 22-3 and the action of the person (monitoring target) will be described. In the figure, the vertical axis represents the output level of the detection signal output from the photosensors 22-1 to 22-3, and the horizontal axis represents time. The detection signal 81-1 represents a detection signal output from the photosensor 22-1, and the detection signal 81-2 represents a detection signal output from the photosensor 22-2. The output level of a detection signal (not shown) output from the photosensor 22-3 is 0.

この例の場合、検知信号81−1の出力レベルが変化した後、検知信号81−2の出力レベルが変化するといった反応が交互に現われている。従って、この反応を検知することで、人物が左から右方向に移動しているのか、あるいは、右から左方向に移動しているのかを区別することができる。   In the case of this example, after the output level of the detection signal 81-1 changes, reactions such that the output level of the detection signal 81-2 changes alternately. Therefore, by detecting this reaction, it is possible to distinguish whether a person is moving from left to right or from right to left.

図4の説明に戻る。センサ反応検知部42は、A/D変換部41でA/D変換されたフォトセンサデータと、定常センサ反応保持部43で保持されている定常時のセンサ値を比較し、その比較結果に基づいて、センサの反応を検知し、検知結果を状態判定部44に供給する。   Returning to the description of FIG. The sensor reaction detection unit 42 compares the photosensor data A / D converted by the A / D conversion unit 41 with the steady-state sensor value held by the steady sensor reaction holding unit 43, and based on the comparison result. The sensor response is detected, and the detection result is supplied to the state determination unit 44.

例えば、図6に示されるように、センサ反応検知部42は、フォトセンサ22−1が出力する検知信号81−1の出力レベルの変化がない状態(人物が監視領域に存在しない状態)が所定時間以上続いた場合に、定常時のフォトセンサ値(定常値L)を予め算出しておき、それを定常センサ反応保持部43に保持させる。そして、現在の入力値とセンサ反応保持部43で保持されている定常値Lを比較し、その差分が定常範囲を超えたときをセンサ反応の開始とし、その後、差分が定常範囲内に収まったときをセンサ反応の終了とする。   For example, as illustrated in FIG. 6, the sensor reaction detection unit 42 has a predetermined state in which the output level of the detection signal 81-1 output from the photosensor 22-1 does not change (a state in which no person is present in the monitoring area). When it continues for more than the time, the photosensor value (steady value L) at the steady state is calculated in advance, and is held in the steady sensor reaction holding unit 43. Then, the current input value and the steady value L held in the sensor reaction holding unit 43 are compared, and when the difference exceeds the steady range, the sensor reaction is started, and then the difference is within the steady range. Time is the end of the sensor reaction.

同様に、フォトセンサ22−2が出力する検知信号81−2、およびフォトセンサ22−3が出力する検知信号(図示せず)の出力レベルの変化がない状態が所定時間以上続いた場合に、センサ反応検知部42は、定常値Lを算出し、その定常値Lと現在の入力値を比較し、その差分が定常範囲を超えたときをセンサ反応の開始とし、その後、差分が定常範囲内に収まったときをセンサ反応の終了とする。   Similarly, when a state in which there is no change in the output level of the detection signal 81-2 output from the photosensor 22-2 and the detection signal (not shown) output from the photosensor 22-3 continues for a predetermined time or longer, The sensor reaction detection unit 42 calculates the steady value L, compares the steady value L with the current input value, and sets the start of the sensor reaction when the difference exceeds the steady range. Thereafter, the difference is within the steady range. When the value falls within the range, the sensor reaction ends.

状態判定部44は、センサ反応検知部42から供給されたセンサ反応結果と状態値保持部45で保持されている状態値に基づいて、監視領域内における人物の一連の行動(センサ反応)の状態に関するデータ(以下、状態記述データと称する)を記述し、それを状態出力部48に出力する。   Based on the sensor reaction result supplied from the sensor reaction detection unit 42 and the state value held in the state value holding unit 45, the state determination unit 44 is a state of a series of actions (sensor reaction) of a person in the monitoring area. Is described, and is output to the state output unit 48.

ここで、図7と図8を参照して、人物の行動に応じて(フォトセンサの反応に応じて)記述される状態記述データの例について説明する。   Here, with reference to FIG. 7 and FIG. 8, an example of the state description data described according to the action of the person (according to the reaction of the photosensor) will be described.

図7は、フォトセンサ22−1乃至22−3の反応に基づいて、状態番号を規定する例を示している。例えば、フォトセンサ22−1のみが反応した場合、状態番号を“1”とし、フォトセンサ22−2のみが反応した場合、状態番号を“2”とし、フォトセンサ22−1,22−2が反応した場合、状態番号を“3”とし、フォトセンサ22−3のみが反応した場合、状態番号を“4”とし、フォトセンサ22−2,22−3が反応した場合、状態番号を“6”とし、フォトセンサ22−1乃至22−3が反応した場合、状態番号を“7”とする。   FIG. 7 shows an example in which the state number is defined based on the reaction of the photosensors 22-1 to 22-3. For example, when only the photosensor 22-1 reacts, the state number is “1”, and when only the photosensor 22-2 reacts, the state number is “2”, and the photosensors 22-1 and 22-2 are When it reacts, the state number is set to “3”, and when only the photosensor 22-3 reacts, the state number is set to “4”, and when the photosensors 22-2 and 22-3 react, the state number is set to “6”. When the photosensors 22-1 to 22-3 have reacted, the state number is set to “7”.

状態値保持部45は、このように規定される状態番号を状態値として保持している。状態判定部44は、センサ反応検知部42から供給されたセンサ反応結果と状態値保持部45で保持されている状態値に基づいて、例えば、図8に示されるような状態記述データ91−1,91−2,91−3、・・・(以下、状態記述データ91−1,91−2,91−3、・・・を個々に区別する必要がない場合、単に状態記述データ91と称する)を記述する。   The state value holding unit 45 holds the state number defined in this way as a state value. Based on the sensor reaction result supplied from the sensor reaction detection unit 42 and the state value held in the state value holding unit 45, the state determination unit 44, for example, state description data 91-1 as shown in FIG. , 91-2, 91-3,... (Hereinafter, the state description data 91-1, 91-2, 91-3,. )

具体的には、例えば、人物の行動に応じて、フォトセンサ22−1が反応し、次に、フォトセンサ22−1,22−2が反応し、さらにその後、フォトセンサ22−2,22−3が反応した場合、状態記述データ91−1には、“1”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、“2”の状態番号およびその反応継続時間が記述され、状態記述データ91−3には、“3”の状態番号およびその反応継続時間が記述される。   Specifically, for example, the photosensor 22-1 reacts according to the action of the person, then the photosensors 22-1 and 22-2 react, and then the photosensors 22-2 and 22-. 3, the state description data 91-1 describes a state number “1” and its reaction duration, and the state description data 91-2 contains a state number “2” and its reaction duration. Is described, and the state description data 91-3 describes the state number "3" and its reaction duration.

そして、状態判定部44は、状態記述データ91−1,91−2,91−3を時間軸方向に連続的に並べたものを状態出力部48に出力する。   Then, the state determination unit 44 outputs the state description data 91-1, 91-2 and 91-3 continuously arranged in the time axis direction to the state output unit 48.

このように、フォトセンサ22−1乃至22−3の反応に応じて、状態番号および継続時間を含む状態記述データ91を記述することで、監視領域内における人物の行動をおおよそ推定することができる。また、図7と図8で規定した状態番号においては、横方向と奥行き方向を検知することができる。   As described above, by describing the state description data 91 including the state number and the duration according to the reaction of the photosensors 22-1 to 22-3, it is possible to roughly estimate the action of the person in the monitoring area. . In the state numbers defined in FIGS. 7 and 8, the horizontal direction and the depth direction can be detected.

さらに状態判定部44は、記述した状態記述データ91(図8)と、処理パラメータ保持部46で保持されている処理ボックス2から受信した通知判定テーブル(後述)を比較し、比較の結果、一致するものがない場合(例えば、状態番号が一致しない場合、あるいは、状態番号は一致するが反応継続時間がテーブルの範囲内に収まっていない場合)、通知イベントと判定し、処理ボックス2に通知するイベントを送信部49に供給するとともに、CCDカメラ21に電源制御信号を供給してその電源をオンさせ、スイッチ47に送信制御信号を供給してオンさせ、状態出力部48の出力を制御する。これにより、CCDカメラ21から出力された通知画像データが、スイッチ47を介して送信部49に供給され、状態出力部48から状態記述データ91(図8)が送信部49に供給される。   Further, the state determination unit 44 compares the described state description data 91 (FIG. 8) with the notification determination table (described later) received from the processing box 2 held in the processing parameter holding unit 46, and as a result of the comparison, matches. If there is nothing to do (for example, if the state numbers do not match, or if the state numbers match but the reaction duration is not within the table range), it is determined as a notification event and notified to the processing box 2 In addition to supplying the event to the transmission unit 49, the power supply control signal is supplied to the CCD camera 21 to turn on the power, the transmission control signal is supplied to the switch 47 to turn on, and the output of the state output unit 48 is controlled. Thus, the notification image data output from the CCD camera 21 is supplied to the transmission unit 49 via the switch 47, and the state description data 91 (FIG. 8) is supplied from the state output unit 48 to the transmission unit 49.

なお、マルチセンサカメラ1の初期状態においては、処理ボックス2から通知判定テーブルが送信されておらず、処理パラメータ保持部46には、この通知判定テーブルが保持されていないため、状態判定部44は、センサ反応検知部42からセンサ反応結果が供給されると、直ちに通知イベントと判定する。すなわち、初期状態においては、全てのイベントが通知されることになる。これにより、必要なイベントがユーザに通知されないことが防止される。   Note that in the initial state of the multi-sensor camera 1, the notification determination table is not transmitted from the processing box 2, and the notification determination table is not stored in the processing parameter storage unit 46. When a sensor reaction result is supplied from the sensor reaction detector 42, it is immediately determined as a notification event. That is, all events are notified in the initial state. Thereby, it is prevented that a required event is not notified to a user.

送信部49は、処理ボックス2に対し、状態判定部44から供給された通知イベントを送信するとともに、CCDカメラ21から供給された通知画像データおよび状態出力部48から供給された状態記述データ91を送信する。受信部50は、処理ボックス2から送信されてきた通知判定テーブルを受信して処理パラメータ保持部46に供給し、そこに蓄積させる。   The transmission unit 49 transmits the notification event supplied from the state determination unit 44 to the processing box 2, and the notification image data supplied from the CCD camera 21 and the state description data 91 supplied from the state output unit 48. Send. The receiving unit 50 receives the notification determination table transmitted from the processing box 2, supplies it to the processing parameter holding unit 46, and accumulates it there.

処理ボックス2の受信部61は、マルチセンサカメラ1から送信されてきた通知画像データおよび通知イベントを呈示画像構築部62に供給する。また受信部61は、マルチセンサカメラ1から送信されてきた状態記述データ91を状態記述データ蓄積部63に供給し、そこに蓄積させる。   The reception unit 61 of the processing box 2 supplies the notification image data and the notification event transmitted from the multi-sensor camera 1 to the presentation image construction unit 62. The receiving unit 61 supplies the state description data 91 transmitted from the multi-sensor camera 1 to the state description data storage unit 63 and stores it therein.

呈示画像構築部62は、受信部61を介してマルチセンサカメラ1からイベントが通知された場合、一般視聴信号(テレビジョン放送信号)の一部に通知画像データを挿入した通知データを構築(作成)し、それを呈示部3に供給して呈示させる。また、呈示画像構築部62は、通知画像データにより構成される(一般視聴信号を含まない)リモートコントローラ4用の通知データを構築し、送信部66に供給する。なお、呈示画像構築部62は、イベントが通知されていない場合(通常の場合)、一般の視聴信号(放送信号に基づく映像)を呈示部3に供給して呈示させる。   The presentation image construction unit 62 constructs (creates) notification data in which notification image data is inserted into a part of a general viewing signal (television broadcast signal) when an event is notified from the multi-sensor camera 1 via the reception unit 61. And supplying it to the presentation unit 3 to present it. In addition, the presentation image construction unit 62 constructs notification data for the remote controller 4 (not including the general viewing signal) configured by the notification image data, and supplies the notification data to the transmission unit 66. When the event is not notified (normal case), the presentation image construction unit 62 supplies a general viewing signal (video based on the broadcast signal) to the presentation unit 3 for presentation.

呈示部3用の通知データは、一般の視聴信号の一部に通知画像データを挿入して構成されているため、呈示部3には、ピクチャインピクチャの表示が呈示される。また、リモートコントローラ4用の通知データは、通知画像データから構成されているため、リモートコントローラ4の呈示部72には、イベントを表わす表示(例えば、監視している場所の画像)のみが呈示される。   Since the notification data for the presenting unit 3 is configured by inserting the notification image data into a part of a general viewing signal, the presenting unit 3 is presented with a picture-in-picture display. Further, since the notification data for the remote controller 4 is composed of notification image data, only the display representing the event (for example, the image of the place being monitored) is presented on the presentation unit 72 of the remote controller 4. The

通知判定テーブル更新部64は、受信部67を介してリモートコントローラ4からユーザフィードバック(FB)に関する信号(以下、適宜、ユーザFB信号と称する)を受信した場合、そのユーザフィードバックを状態記述データ蓄積部63に供給し、そこに蓄積させる。また通知判定テーブル更新部64は、状態記述データ蓄積部63に蓄積されている状態記述データ91とそれに対応するユーザフィードバックを読み込み、それらと通知判定テーブルを比較し、比較の結果に基づいてテーブルを更新する。そして、通知判定テーブル更新部64は、以前にマルチセンサカメラ1に送信した通知判定テーブルと異なる場合、新しい通知判定テーブルを送信部65に供給する。   When the notification determination table updating unit 64 receives a signal related to user feedback (FB) (hereinafter referred to as a user FB signal as appropriate) from the remote controller 4 via the receiving unit 67, the user feedback is sent to the state description data storage unit. Is supplied to 63 and stored there. The notification determination table update unit 64 reads the state description data 91 stored in the state description data storage unit 63 and the corresponding user feedback, compares them with the notification determination table, and creates a table based on the comparison result. Update. Then, the notification determination table update unit 64 supplies a new notification determination table to the transmission unit 65 when different from the notification determination table previously transmitted to the multi-sensor camera 1.

ここで、ユーザフィードバックとは、ユーザが、呈示されたイベントに対して、判断を行ない、リモートコントローラ4の入力部73を用いて入力されたユーザの判断入力を意味する。例えば、ユーザは、イベントを今後も知らせて欲しい場合には、入力部73のOKボタン(図示せず)を操作し、今後はイベントとして検出しなくてもよい場合には、NGボタン(図示せず)を操作することで、ユーザフィードバックとして入力することができる。あるいは、イベントとして検出しなくてもよい場合だけ、フィードバックさせるようにしてもよい。   Here, the user feedback means a user's determination input that is input using the input unit 73 of the remote controller 4 when the user makes a determination on the presented event. For example, the user operates the OK button (not shown) of the input unit 73 when the user wants to keep informed of the event, and the NG button (not shown) when it is not necessary to detect the event as an event in the future. Can be input as user feedback. Alternatively, feedback may be performed only when it is not necessary to detect the event.

状態記述データ蓄積部63は、受信部61から状態記述データ91が供給されたときに、通知判定テーブル更新部64からユーザフィードバックが供給された場合、状態記述データ91とユーザフィードバックを対応付けて蓄積し、状態記述データ91またはユーザフィードバックのいずれか一方のみが供給された場合、新規の状態記述データまたは新規のユーザフィードバックとして蓄積する。   When the state description data 91 is supplied from the receiving unit 61 and the user feedback is supplied from the notification determination table updating unit 64, the state description data storage unit 63 stores the state description data 91 and the user feedback in association with each other. If only one of the state description data 91 and the user feedback is supplied, it is stored as new state description data or new user feedback.

送信部65は、通知判定テーブル更新部64から供給された通知判定テーブルをマルチセンサカメラ1に送信する。送信部66は、呈示画像構築部62から供給された通知データをリモートコントローラ4に送信する。受信部67は、リモートコントローラ4から送信されてきたユーザFB信号を受信し、それを通知判定テーブル更新部64に供給する。   The transmission unit 65 transmits the notification determination table supplied from the notification determination table update unit 64 to the multi-sensor camera 1. The transmission unit 66 transmits the notification data supplied from the presentation image construction unit 62 to the remote controller 4. The receiving unit 67 receives the user FB signal transmitted from the remote controller 4 and supplies it to the notification determination table updating unit 64.

リモートコントローラ4の受信部71は、処理ボックス2から送信されてきた通知データを受信し、それを呈示部72に呈示させる。入力部73は、呈示されたイベントに対するユーザからの判断に基づく入力を受け、その入力(ユーザフィードバック)に関する信号を送信部74に供給する。送信部74は、入力部73から供給されたユーザFB信号を処理ボックス2に送信する。   The receiving unit 71 of the remote controller 4 receives the notification data transmitted from the processing box 2 and causes the presenting unit 72 to present it. The input unit 73 receives an input based on a judgment from the user with respect to the presented event, and supplies a signal related to the input (user feedback) to the transmission unit 74. The transmission unit 74 transmits the user FB signal supplied from the input unit 73 to the processing box 2.

ここで、ユーザフィードバックとは、上述したように、例えば、「今後も知らせて欲しいイベントである」、あるいは、「今後は知らせなくてよいイベントである」などのユーザによる判断の入力を示す。マルチセンサカメラ1と処理ボックス2は、このユーザフィードバックに基づいて、処理を変化させる。   Here, as described above, the user feedback indicates, for example, a determination input by the user such as “an event that I want to be notified in the future” or “an event that should not be notified in the future”. The multi-sensor camera 1 and the processing box 2 change processing based on this user feedback.

図9は、図4の処理ボックス2の通知判定テーブル更新部64の詳細な構成例を示すブロック図である。   FIG. 9 is a block diagram illustrating a detailed configuration example of the notification determination table update unit 64 of the processing box 2 of FIG.

ユーザフィードバック(FB)判定部101は、状態記述データ蓄積部63に蓄積されている状態記述データ91(図8)とそれに対応するユーザフィードバックを読み込み、ユーザフィードバックが「OK」を示すデータであるか、または「NG」を示すデータであるかを判定し、判定結果を状態記述データ91とともに状態記述パターン比較部102に供給する。   The user feedback (FB) determination unit 101 reads the state description data 91 (FIG. 8) stored in the state description data storage unit 63 and the user feedback corresponding thereto, and whether the user feedback is data indicating “OK”. Or the data indicating “NG”, and the determination result is supplied to the state description pattern comparison unit 102 together with the state description data 91.

状態記述パターン比較部102は、ユーザフィードバック判定部101から「NG(今後はイベントとして検出しなくてもよい)」を示す判定結果が供給された場合、その判定結果とともに供給される状態記述データ91と、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブル中のパターンとを比較する。状態記述パターン比較部102は、比較の結果、状態記述データ91と仮の通知判定テーブル中のパターンが一致するものがあれば、その状態記述データ91とそれに一致するパターンを既存パターン更新部104に供給し、一致するものがなければ、状態記述データ91を新規パターン作成部103に供給する。   When the determination result indicating “NG (may not be detected as an event in the future)” is supplied from the user feedback determination unit 101, the state description pattern comparison unit 102 supplies the state description data 91 supplied together with the determination result. Are compared with the patterns in the temporary notification determination table stored in the temporary notification determination table storage unit 105. If there is a match between the state description data 91 and the temporary notification determination table as a result of the comparison, the state description pattern comparison unit 102 sends the state description data 91 and the matching pattern to the existing pattern update unit 104. If there is no match, the state description data 91 is supplied to the new pattern creation unit 103.

新規パターン作成部103は、状態記述パターン比較部102から供給された状態記述データ91に含まれる状態番号とそれに対応する継続時間を、新規の通知判定テーブルの継続時間の最小値および最大値として仮通知判定テーブル蓄積部105に追加し、そこに蓄積させる。   The new pattern creation unit 103 temporarily sets the state number included in the state description data 91 supplied from the state description pattern comparison unit 102 and the corresponding duration as the minimum value and maximum value of the duration of the new notification determination table. The information is added to the notification determination table storage unit 105 and stored therein.

既存パターン更新部104は、状態記述パターン比較部102から供給された、現在の状態記述データ91に含まれる継続時間と、状態記述データ91に一致するパターンに対応する継続時間の最小値および最大値を比較する。既存パターン更新部104は、比較の結果、一致するパターンに対応する継続時間の最小値より現在の状態記述データ91の継続時間の方が短いと判定した場合、一致するパターンの継続時間の最小値を現在のデータの継続時間に置き換え(更新し)、一致するパターンに対応する継続時間の最大値より現在の状態記述データ91の継続時間の方が長いと判定した場合、一致するパターンの継続時間の最大値を現在のデータの継続時間に置き換える(更新する)。そして、既存パターン更新部104は、置き換えたデータを、更新通知判定テーブルとして仮通知判定テーブル蓄積部105に蓄積させる。   The existing pattern update unit 104 supplies the duration included in the current state description data 91 supplied from the state description pattern comparison unit 102, and the minimum and maximum values of the duration corresponding to the pattern matching the state description data 91 Compare If the existing pattern update unit 104 determines that the duration of the current state description data 91 is shorter than the minimum value of the duration corresponding to the matching pattern as a result of the comparison, the minimum value of the duration of the matching pattern Is replaced (updated) with the duration of the current data, and if it is determined that the duration of the current state description data 91 is longer than the maximum duration corresponding to the matching pattern, the duration of the matching pattern Replace (update) the maximum value of with the duration of the current data. Then, the existing pattern update unit 104 causes the temporary notification determination table storage unit 105 to store the replaced data as an update notification determination table.

仮通知判定テーブル蓄積部105は、新規パターン作成部103により追加された仮の通知判定テーブルであって、必要に応じて既存パターン更新部104により更新された通知判定テーブルを蓄積する。   The temporary notification determination table storage unit 105 is a temporary notification determination table added by the new pattern creation unit 103, and stores the notification determination table updated by the existing pattern update unit 104 as necessary.

テーブル比較部106は、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルと、過去通知判定テーブル蓄積部107に蓄積されている過去の通知判定テーブルを比較し、同じであると判定した場合、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルを過去通知判定テーブル蓄積部107に供給し、更新通知判定テーブルとして蓄積させる。これに対し、仮の通知判定テーブルと過去の知判定テーブルが同じではないと判定した場合、テーブル比較部106は、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルを、送信部65を介してマルチセンサカメラ1に送信した後、その仮の通知判定テーブルを過去通知判定テーブル蓄積部107に供給し、更新通知判定テーブルとして蓄積させる。   The table comparison unit 106 compares the temporary notification determination table stored in the temporary notification determination table storage unit 105 with the past notification determination table stored in the past notification determination table storage unit 107, and is the same. If it is determined, the provisional notification determination table stored in the provisional notification determination table storage unit 105 is supplied to the past notification determination table storage unit 107 and stored as an update notification determination table. On the other hand, when it is determined that the temporary notification determination table and the past knowledge determination table are not the same, the table comparison unit 106 transmits the temporary notification determination table stored in the temporary notification determination table storage unit 105. After transmitting to the multi-sensor camera 1 via the unit 65, the provisional notification determination table is supplied to the past notification determination table storage unit 107 and stored as an update notification determination table.

過去通知判定テーブル蓄積部107は、テーブル比較部106により更新された通知判定テーブルを過去の通知判定テーブルとして蓄積する。   The past notification determination table storage unit 107 stores the notification determination table updated by the table comparison unit 106 as a past notification determination table.

図10は、過去通知判定テーブル蓄積部107に蓄積される通知判定テーブルの例を示す図である。   FIG. 10 is a diagram illustrating an example of a notification determination table stored in the past notification determination table storage unit 107.

同図に示されるように、フォトセンサ22−1乃至22−3の反応に基づいて規定される状態番号、および、その状態番号の反応継続時間の最小値および最大値が1つの状態記述データに規定される。この状態記述データ121−1乃至121−mからなる人物の行動が1つの通知判定テーブルに規定される。そして、通知判定テーブル111−1乃至111−nからなる通知判定テーブル群が過去通知判定テーブル蓄積部107に蓄積される。   As shown in the figure, the state number defined based on the reaction of the photosensors 22-1 to 22-3, and the minimum and maximum values of the reaction duration of the state number are included in one state description data. It is prescribed. The behavior of a person composed of the state description data 121-1 to 121-m is defined in one notification determination table. Then, the notification determination table group including the notification determination tables 111-1 to 111-n is stored in the past notification determination table storage unit 107.

以下、状態記述データ121−1乃至121−mを個々に区別する必要がない場合、単に状態記述データ121と称し、通知判定テーブル111−1乃至111−nを個々に区別する必要がない場合、単に通知判定テーブル111と称する。   Hereinafter, when it is not necessary to individually distinguish the state description data 121-1 to 121-m, they are simply referred to as state description data 121, and when the notification determination tables 111-1 to 111-n need not be individually distinguished, This is simply referred to as notification determination table 111.

次に、図11のフローチャートを参照して、マルチセンサカメラ1における処理について説明する。なお、この処理は、ユーザにより、監視領域における監視を開始するよう指令されたとき、開始される。   Next, processing in the multi-sensor camera 1 will be described with reference to the flowchart of FIG. This process is started when the user gives an instruction to start monitoring in the monitoring area.

ステップS1において、センサ反応検知部42は、フォトセンサ反応判定処理を行う。このフォトセンサ反応判定処理の詳細については、図13のフローチャートを参照して後述するが、この処理により、フォトセンサ22−1乃至22−3が反応しているか否かの判定が行われる。   In step S1, the sensor reaction detection unit 42 performs a photosensor reaction determination process. The details of the photosensor reaction determination process will be described later with reference to the flowchart of FIG. 13, and it is determined by this process whether or not the photosensors 22-1 to 22-3 are responding.

ステップS2において、センサ反応検知部42は、ステップS1の処理による反応結果(後述する反応フラグおよびフォトセンサ値)を保存する。ステップS3において、センサ反応検知部42は、全てのフォトセンサ22−1乃至22−3について反応判定処理を実行したか否かを判定し、未だ処理を実行していないフォトセンサが存在すると判定した場合、ステップS1に戻り、上述した処理を繰り返し実行する。   In step S <b> 2, the sensor reaction detection unit 42 stores a reaction result (reaction flag and photosensor value described later) by the process in step S <b> 1. In step S3, the sensor reaction detection unit 42 determines whether or not the reaction determination process has been performed for all the photosensors 22-1 to 22-3, and determines that there is a photosensor that has not yet been processed. In this case, the process returns to step S1, and the above-described process is repeatedly executed.

ステップS3において、全てのフォトセンサについて処理を実行したと判定された場合、ステップS4に進み、状態判定部44は、ステップS2の処理で保存された反応結果に基づいて、監視領域内における人物の一連の行動に関し、状態記述データを記述する。すなわち、状態判定部44は、図8に示したように、フォトセンサ22−1乃至22−3の反応に応じて規定される状態番号および反応継続時間を含む状態記述データ91を記述し、それを状態出力部48に出力する。   If it is determined in step S3 that the process has been executed for all the photosensors, the process proceeds to step S4, and the state determination unit 44 determines the person in the monitoring area based on the reaction result stored in the process of step S2. Describe state description data for a series of actions. That is, as shown in FIG. 8, the state determination unit 44 describes the state description data 91 including the state number and the reaction duration defined according to the reactions of the photosensors 22-1 to 22-3. Is output to the state output unit 48.

ステップS5において、状態判定部44は、ステップS4の処理で記述した状態記述データ91と処理パラメータ保持部46で保持されている通知判定テーブルを比較する。具体的には、ステップS4の処理で、例えば、図12に示されるように、状態番号1および継続時間T1からなる状態記述データ91−1と、状態番号2および継続時間T2からなる状態記述データ91−2が記述された場合、状態判定部44は、状態番号1、状態番号2の順のパターンと、保持している通知判定テーブル111(図10)の状態記述データ121に含まれる状態番号のパターンを比較し、一致するものがなければ通知イベントが発生していると判断する。   In step S <b> 5, the state determination unit 44 compares the state description data 91 described in the process of step S <b> 4 with the notification determination table held in the processing parameter holding unit 46. Specifically, in the process of step S4, for example, as shown in FIG. 12, state description data 91-1 consisting of state number 1 and duration T1, and state description data consisting of state number 2 and duration T2 When 91-2 is described, the state determination unit 44 determines the state number included in the pattern in the order of state number 1 and state number 2, and the state description data 121 of the held notification determination table 111 (FIG. 10). If there is no match, it is determined that a notification event has occurred.

これに対し、状態番号1、状態番号2の順のパターンに一致する通知判定テーブル111がある場合、状態判定部44は、図12に示されるように、状態記述データ91−1の継続時間T1が、通知判定テーブル111の状態記述データ121−1の継続時間最小値Tmin1と継続時間最大値Tmax1の範囲内におさまっているか否か、また、状態記述データ91−2の継続時間T2が、通知判定テーブル111の状態記述データ121−2の継続時間最小値Tmin2と継続時間最大値Tmax2の範囲内におさまっているか否かの判定を行い、少なくともいずれか一方が、その範囲内におさまっていなければ、通知イベントが発生していると判断する。   On the other hand, when there is a notification determination table 111 that matches the pattern in the order of state number 1 and state number 2, the state determination unit 44, as shown in FIG. 12, the duration T1 of the state description data 91-1. Is within the range of the minimum duration Tmin1 and the maximum duration Tmax1 of the state description data 121-1 of the notification determination table 111, and the duration T2 of the state description data 91-2 is notified. It is determined whether or not the state description data 121-2 of the determination table 111 is within the range of the minimum duration value Tmin2 and the maximum duration value Tmax2, and if at least one of them is not within the range. It is determined that a notification event has occurred.

さらに、状態判定部44は、状態記述データ91−1の継続時間T1が、通知判定テーブル111の状態記述データ121−1の継続時間最小値Tmin1と継続時間最大値Tmax1の範囲内におさまっており、かつ、状態記述データ91−2の継続時間T2が、通知判定テーブル111の状態記述データ121−2の継続時間最小値Tmin2と継続時間最大値Tmax2の範囲内におさまっていれば、非通知イベントが発生していると判断する(イベントは通知されない)。   Further, in the state determination unit 44, the duration T1 of the state description data 91-1 falls within the range of the minimum duration Tmin1 and the maximum duration Tmax1 of the state description data 121-1 of the notification determination table 111. If the duration T2 of the state description data 91-2 is within the range of the minimum duration Tmin2 and the maximum duration Tmax2 of the state description data 121-2 of the notification determination table 111, the non-notification event It is determined that has occurred (the event is not notified).

なお、マルチセンサカメラ1の初期状態においては、未だ通知判定テーブル111が処理ボックス2から送信されておらず、処理パラメータ保持部46が、この通知判定テーブルを保持していないため、状態判定部44は、センサ反応検知部42からセンサ反応結果が供給されると、直ちに通知イベントと判定する。   In the initial state of the multi-sensor camera 1, the notification determination table 111 has not yet been transmitted from the processing box 2, and the processing parameter holding unit 46 does not hold this notification determination table. Is immediately determined as a notification event when a sensor reaction result is supplied from the sensor reaction detector 42.

ステップS6において、状態出力部48は、状態判定部44から供給された状態記述データ91を、送信部49を介して処理ボックス2に送信する。処理ボックス2は、この状態記述データ91を受信し、通知判定テーブルとして状態記述データ蓄積部63に蓄積するとともに(後述する図15のステップS58)、この通知判定テーブルを必要に応じて更新し(後述する図15のステップS63)、更新した通知判定テーブルを送信してくる(後述する図15のステップS64)。   In step S <b> 6, the state output unit 48 transmits the state description data 91 supplied from the state determination unit 44 to the processing box 2 via the transmission unit 49. The processing box 2 receives this state description data 91 and stores it in the state description data storage unit 63 as a notification determination table (step S58 in FIG. 15 described later), and updates this notification determination table as necessary ( The updated notification determination table is transmitted (step S64 in FIG. 15 described later).

ステップS7において、状態判定部44は、ステップS5の処理による比較結果に基づいて、通知イベントであるか否かを判定し、通知イベントであると判定した場合、ステップS8に進み、CCDカメラ21に電源制御信号を供給してその電源をオンさせ、送信部49を介して処理ボックス2にイベントを通知し、さらに、送信制御信号をスイッチ47に供給してオンさせる。   In step S7, the state determination unit 44 determines whether or not the event is a notification event based on the comparison result obtained in the process of step S5. If it is determined that the event is a notification event, the process proceeds to step S8, and the CCD camera 21 The power supply control signal is supplied to turn on the power supply, the event is notified to the processing box 2 through the transmission unit 49, and the transmission control signal is supplied to the switch 47 to be turned on.

これにより、CCDカメラ21から処理ボックス2に対し、通知画像データ(イベント画像)の送信が開始される。処理ボックス2は、この通知画像データを受信し、呈示部3に呈示させる(後述する図15のステップS53)。すなわち、通知イベントであると判定された場合にのみCCDカメラ21の電源がオンされ、通知イベントでない場合には、CCDカメラ21の電源はオフのままとなっており、これにより、無駄なバッテリ消費を抑えることができる。   As a result, transmission of notification image data (event image) from the CCD camera 21 to the processing box 2 is started. The processing box 2 receives the notification image data and causes the presenting unit 3 to present it (step S53 in FIG. 15 described later). That is, the power of the CCD camera 21 is turned on only when it is determined that it is a notification event, and when it is not a notification event, the power of the CCD camera 21 remains off. Can be suppressed.

ステップS7において、通知イベントではない、すなわち非通知イベントであると判定された場合、ステップS9に進み、状態判定部44は、CCDカメラ21に電源制御信号を供給してその電源をオフさせ、送信制御信号をスイッチ47に供給してオフさせる。これにより、ステップS8の処理でCCDカメラ21からスイッチ47および送信部49を介して処理ボックス2に送信されていた通知画像データ(イベント画像)の送信が停止される。   When it is determined in step S7 that the event is not a notification event, that is, a non-notification event, the process proceeds to step S9, where the state determination unit 44 supplies a power control signal to the CCD camera 21 to turn off the power and transmit A control signal is supplied to the switch 47 to turn it off. Thereby, transmission of the notification image data (event image) transmitted from the CCD camera 21 to the processing box 2 via the switch 47 and the transmission unit 49 in the process of step S8 is stopped.

ステップS8またはステップS9の処理の後、ステップS10において、受信部50は、処理ボックス2より通知判定テーブルを受信したか否かを判定し、通知判定テーブルを受信したと判定した場合、ステップS11に進み、受信した通知判定テーブルを処理パラメータ保持部46に供給して、更新させる。   After the process of step S8 or step S9, in step S10, the receiving unit 50 determines whether or not the notification determination table is received from the processing box 2, and if it is determined that the notification determination table is received, the process proceeds to step S11. Then, the received notification determination table is supplied to the processing parameter holding unit 46 to be updated.

ステップS10において、処理ボックス2より通知判定テーブルを受信していないと判定された場合、または、ステップS11の処理の後、処理はステップS1に戻り、上述した処理が繰り返し実行される。   If it is determined in step S10 that the notification determination table has not been received from the processing box 2, or after the process of step S11, the process returns to step S1, and the above-described process is repeatedly executed.

次に、図13のフローチャートを参照して、図11のステップS1におけるフォトセンサ反応処理の詳細について説明する。   Next, the details of the photosensor reaction process in step S1 of FIG. 11 will be described with reference to the flowchart of FIG.

ステップS21において、センサ反応検知部42は、オンされているフォトセンサ22−1乃至22−3から、A/D変換部41を介してフォトセンサ値を取得する。ステップS22において、センサ反応検知部42は、定常状態検出処理を行う。この定常状態検出処理の詳細については、図14のフローチャートを参照して後述するが、この処理により、フォトセンサ22−1乃至22−3のそれぞれの定常時(センサが反応していない状態)のフォトセンサ値が算出される。   In step S <b> 21, the sensor reaction detection unit 42 acquires a photosensor value via the A / D conversion unit 41 from the photosensors 22-1 to 22-3 that are turned on. In step S22, the sensor reaction detection unit 42 performs steady state detection processing. The details of this steady state detection process will be described later with reference to the flowchart of FIG. 14. With this process, each of the photosensors 22-1 to 22-3 is in a steady state (a state where the sensor is not responding). A photosensor value is calculated.

ステップS23において、センサ反応検知部42は、フォトセンサ22−1乃至22−3の定常値をそれぞれ算出したか否かを判定し、算出されていないフォトセンサ22−1乃至22−3の定常値があると判定した場合、ステップS21に戻り、上述した処理を繰り返し実行する。   In step S23, the sensor reaction detector 42 determines whether or not the steady values of the photosensors 22-1 to 22-3 have been calculated, and the steady values of the photosensors 22-1 to 22-3 that have not been calculated. If it is determined that there is, the process returns to step S21 and the above-described process is repeatedly executed.

ステップS23において、フォトセンサ22−1乃至22−3の定常値をそれぞれ算出したと判定された場合、ステップS24に進み、センサ反応検知部42は、現在のフォトセンサ値とステップS22の処理で算出された定常値の差分絶対値を算出する。すなわち、図6を用いて上述したように、定常値Lとフォトセンサ値(図6の例の場合、検知信号81−1)の差分が算出される。   If it is determined in step S23 that the steady values of the photosensors 22-1 to 22-3 have been calculated, the process proceeds to step S24, where the sensor reaction detection unit 42 calculates the current photosensor value and the process of step S22. The absolute value of the difference between the steady values is calculated. That is, as described above with reference to FIG. 6, the difference between the steady value L and the photosensor value (the detection signal 81-1 in the example of FIG. 6) is calculated.

ステップS25において、センサ反応検知部42は、反応フラグがオンであるか否かを判定し、反応フラグがオンであると判定した場合、ステップS26に進み、さらに、ステップS24の処理で算出した差分絶対値が所定の閾値以下であるか否か(図6に示す定常範囲内に収まっているか否か)を判定する。   In step S25, the sensor reaction detection unit 42 determines whether or not the reaction flag is on. If it is determined that the reaction flag is on, the process proceeds to step S26, and further, the difference calculated in the process of step S24. It is determined whether or not the absolute value is equal to or less than a predetermined threshold (whether or not it falls within the steady range shown in FIG. 6).

ステップS26において、差分絶対値が所定の閾値以下であると判定された場合、ステップS27に進み、センサ反応検知部42は、反応フラグをオフする。一方、ステップS26において、差分絶対値が所定の閾値以下ではない、すなわち、所定の閾値より大きい(図6に示す定常範囲を超えている)と判定された場合、ステップS27の処理はスキップされる(すなわち、反応フラグはオンのままとされる)。   If it is determined in step S26 that the difference absolute value is equal to or smaller than the predetermined threshold value, the process proceeds to step S27, and the sensor reaction detection unit 42 turns off the reaction flag. On the other hand, if it is determined in step S26 that the absolute difference value is not less than or equal to the predetermined threshold value, that is, greater than the predetermined threshold value (exceeds the steady range shown in FIG. 6), the process of step S27 is skipped. (Ie, the reaction flag remains on).

ステップS25において、反応フラグがオンではなくオフであると判定された場合、ステップS28に進み、センサ反応検知部42は、差分絶対値が所定の閾値以上であるか否か(図6に示す定常範囲を超えているか否か)を判定し、差分絶対値が所定の閾値以上であると判定した場合、ステップS29に進み、反応フラグをオンする。一方、ステップS28において、差分絶対値が所定の閾値以上ではない、すなわち、所定の閾値より小さい(図6に示す定常範囲内に収まっている)と判定された場合、ステップS29の処理はスキップされる(すなわち、反応フラグはオフのままとされる)。   In step S25, when it is determined that the reaction flag is not on but off, the process proceeds to step S28, and the sensor reaction detection unit 42 determines whether or not the absolute difference value is equal to or greater than a predetermined threshold (steady state shown in FIG. 6). If it is determined whether or not the absolute value of the difference is greater than or equal to a predetermined threshold value, the process proceeds to step S29, and the reaction flag is turned on. On the other hand, if it is determined in step S28 that the absolute difference value is not greater than or equal to the predetermined threshold value, that is, smaller than the predetermined threshold value (is within the steady range shown in FIG. 6), the process of step S29 is skipped. (Ie, the reaction flag is left off).

ステップS30において、センサ反応検知部42は、反応フラグとともにステップS21の処理で取得したフォトセンサ22−1乃至22−3のフォトセンサ値を反応結果として状態判定部44に出力する。   In step S30, the sensor reaction detection unit 42 outputs the photosensor values of the photosensors 22-1 to 22-3 acquired in the process of step S21 together with the reaction flag to the state determination unit 44 as a reaction result.

以上の処理により、センサ反応検知部42から出力された反応結果が、図11のステップS2において保存され、センサ反応検知部42から出力されたフォトセンサ値が、ステップS4において、状態記述データの記述処理に用いられる。   Through the above processing, the reaction result output from the sensor reaction detector 42 is stored in step S2 of FIG. 11, and the photosensor value output from the sensor reaction detector 42 is described in the state description data in step S4. Used for processing.

次に、図14のフローチャートを参照して、図13のステップS22における定常状態検出処理の詳細について説明する。   Next, the details of the steady state detection process in step S22 of FIG. 13 will be described with reference to the flowchart of FIG.

ステップS41において、センサ反応検知部42は、定常状態カウンタをクリアする。ステップS42において、センサ反応検知部42は、図13のステップS21の処理で取得したフォトセンサ値に基づいて、定常状態であるか否かを判定する。すなわち、図6に示したように、検知信号81−1の出力レベルの変化がない状態(人物が監視領域に存在しない状態)が所定時間以上続いた場合に定常状態であると判定される。   In step S41, the sensor reaction detection unit 42 clears the steady state counter. In step S42, the sensor reaction detector 42 determines whether or not it is in a steady state based on the photosensor value acquired in the process of step S21 in FIG. That is, as shown in FIG. 6, it is determined that the state is a steady state when a state in which the output level of the detection signal 81-1 does not change (a state in which no person is present in the monitoring area) continues for a predetermined time or longer.

ステップS42において、定常状態であると判定された場合、ステップS43に進み、センサ反応検知部42は、定常状態カウンタを1だけインクリメントし、ステップS44において、現在のフォトセンサ値を定常状態算出用バッファに格納する。   If it is determined in step S42 that the current state is the steady state, the process proceeds to step S43, and the sensor reaction detection unit 42 increments the steady state counter by 1. In step S44, the current photosensor value is stored in the steady state calculation buffer. To store.

ステップS45において、センサ反応検知部42は、定常状態カウンタが所定の閾値より大きいか否か、すなわち、後述するステップS46の処理で平均処理するために必要な数(例えば、10個)のフォトセンサ値がバッファに格納されたか否かを判定し、定常状態カウンタが所定の閾値より小さいと判定した場合、ステップS42に戻り、上述した処理を繰り返し実行する。   In step S45, the sensor reaction detection unit 42 determines whether or not the steady state counter is larger than a predetermined threshold, that is, the number of photosensors necessary for the averaging process in the process of step S46 described later (for example, 10). It is determined whether or not the value is stored in the buffer, and when it is determined that the steady state counter is smaller than the predetermined threshold value, the process returns to step S42 and the above-described processing is repeatedly executed.

ステップS45において、定常状態カウンタが所定の閾値より大きいと判定された場合(平均処理するために必要な数(例えば、10個)のフォトセンサ値がバッファに格納されたと判定された場合)、ステップS46に進み、センサ反応検知部42は、定常状態算出用バッファに格納されている複数のフォトセンサ値を読み出して平均処理し、それを定常センサ値に設定する。   If it is determined in step S45 that the steady state counter is larger than the predetermined threshold (if it is determined that the number of photosensor values necessary for averaging (for example, 10) is stored in the buffer), step In S46, the sensor reaction detection unit 42 reads out and averages a plurality of photosensor values stored in the steady state calculation buffer, and sets them as steady sensor values.

ステップS47において、センサ反応検知部42は、ステップS46の処理で設定した定常センサ値を定常センサ反応保持部43に供給して保持させる。   In step S47, the sensor reaction detector 42 supplies the steady sensor value set in the process of step S46 to the steady sensor reaction holding unit 43 to hold it.

以上の処理により、センサ反応検知部42で算出された、フォトセンサ22−1乃至22−3の各定常センサ値が定常センサ反応保持部43に保持され、図13のステップS24において、処理対象とする現在のフォトセンサ値との差分絶対値の算出処理に用いられる。   Through the above process, the steady sensor values of the photosensors 22-1 to 22-3 calculated by the sensor reaction detection unit 42 are held in the steady sensor reaction holding unit 43. In step S24 of FIG. It is used for calculating the absolute value of the difference from the current photosensor value.

次に、図15のフローチャートを参照して、図11のマルチセンサカメラ1の処理に対応して実行される処理ボックス2における処理について説明する。なお、この処理は、ユーザにより、呈示部3に対して一般視聴信号(放送番組信号)に対応する画像の呈示を行うよう指令されたとき、または監視領域における監視を開始するよう指令されたとき、開始される。   Next, processing in the processing box 2 executed in correspondence with the processing of the multi-sensor camera 1 in FIG. 11 will be described with reference to the flowchart in FIG. This process is performed when the user instructs the presenting unit 3 to present an image corresponding to the general viewing signal (broadcast program signal), or when it is instructed to start monitoring in the monitoring area. To be started.

ステップS51において、通知判定テーブル更新部64は、状態記述データ蓄積部63に蓄積されている状態記述データ、および仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルをクリアするとともに、ユーザフィードバック受信フラグをオフする。受信部61は、イベント受信フラグ、および状態記述データ受信フラグをオフする。   In step S51, the notification determination table update unit 64 clears the state description data stored in the state description data storage unit 63 and the temporary notification determination table stored in the temporary notification determination table storage unit 105, and Turn off the user feedback reception flag. The receiving unit 61 turns off the event reception flag and the state description data reception flag.

ステップS52において、受信部61は、イベント受信フラグがオンである(通知イベント受信中である)か否かを判定し、イベント受信フラグがオンであると判定した場合、(上述した図11のステップS8の処理により)マルチセンサカメラ1から送信されてきた通知画像データおよび通知イベントを呈示画像構築部62に供給し、ステップS53に進む。   In step S52, the reception unit 61 determines whether or not the event reception flag is on (notification event reception is in progress), and if it is determined that the event reception flag is on (step of FIG. 11 described above). The notification image data and notification event transmitted from the multi-sensor camera 1 are supplied to the presentation image construction unit 62 (by the process of S8), and the process proceeds to step S53.

ステップS53において、呈示画像構築部62は、受信部61から供給された通知画像データを一般視聴信号の一部に通知画像データを挿入した通知データ(ピクチャインピクチャで呈示するための画像データ)を構築し、それを呈示部3に呈示させる。また呈示画像構築部62は、一般視聴信号を含まないリモートコントローラ4用の通知データ(通知画像データにより構成されるデータ)を構築し、送信部66を介してリモートコントローラ4に送信する。リモートコントローラ4は、この通知データを受信し、呈示部72に呈示させる(後述する図17のステップS92)。   In step S53, the presented image construction unit 62 receives notification data (image data for presenting in picture-in-picture) in which the notification image data supplied from the receiving unit 61 is inserted into a part of the general viewing signal. Build it and present it to the presentation unit 3. The presented image construction unit 62 constructs notification data for the remote controller 4 that does not include a general viewing signal (data configured by the notification image data), and transmits the notification data to the remote controller 4 via the transmission unit 66. The remote controller 4 receives the notification data and causes the presenting unit 72 to present it (step S92 in FIG. 17 described later).

ステップS52において、イベント受信フラグがオンではなくオフであると判定された場合、ステップS54に進み、受信部61は、マルチセンサカメラ1から通知イベントを受信したか否かを判定し、通知イベントを受信したと判定した場合、ステップS55に進み、イベント受信フラグをオンする。   If it is determined in step S52 that the event reception flag is not on but off, the process proceeds to step S54, where the reception unit 61 determines whether a notification event has been received from the multi-sensor camera 1 and determines the notification event. When it determines with having received, it progresses to step S55 and turns on an event reception flag.

ステップS53の処理の後、ステップS55の処理の後、またはステップS54において、通知イベントを受信していないと判定された場合、ステップS56に進み、受信部51は、マルチセンサカメラ1から状態記述データ91(図8)を受信したか否かを判定する。   After the process of step S53, after the process of step S55, or when it is determined in step S54 that the notification event has not been received, the process proceeds to step S56, where the receiving unit 51 receives the state description data from the multi-sensor camera 1. It is determined whether 91 (FIG. 8) has been received.

ステップS56において、状態記述データを受信したと判定された場合、ステップS57に進み、受信部61は、状態記述データ受信フラグをオンし、ステップS58において、(上述した図11のステップS6の処理により)マルチセンサカメラ1から送信されてきた状態記述データ91を受信し、状態記述データ蓄積部63に蓄積させる。ただし、このときに、既にユーザフィードバック受信フラグがオンである場合、そのユーザフィードバックに対応付けて状態記述データ91が蓄積される。   When it is determined in step S56 that the state description data has been received, the process proceeds to step S57, where the receiving unit 61 turns on the state description data reception flag, and in step S58 (by the processing of step S6 in FIG. 11 described above). ) The state description data 91 transmitted from the multi-sensor camera 1 is received and stored in the state description data storage unit 63. However, at this time, if the user feedback reception flag is already on, the state description data 91 is stored in association with the user feedback.

ステップS58の処理の後、または、ステップS56において、状態記述データを受信していないと判定された場合、ステップS59に進み、通知判定テーブル更新部64は、受信部67を介してリモートコントローラ4から(後述する図17のステップS94の処理により)送信されてきたユーザFB信号を受信したか否かを判定し、ユーザFB信号を受信したと判定した場合、ステップS60に進む。   After the process of step S58 or when it is determined in step S56 that the state description data has not been received, the process proceeds to step S59, where the notification determination table update unit 64 receives from the remote controller 4 via the reception unit 67. It is determined whether or not the transmitted user FB signal has been received (by the process of step S94 in FIG. 17 described later). If it is determined that the user FB signal has been received, the process proceeds to step S60.

ステップS60において、通知判定テーブル更新部64は、ユーザフィードバック受信フラグをオンし、受信部61は、イベント受信フラグをオフする。ステップS61において、通知判定テーブル更新部64は、このとき、状態記述データ受信フラグがオンであれば、ユーザフィードバック(「OK(今後も通知して欲しい)」または「NG(今後は通知しなくても良い)」)を状態記述データ蓄積部63に蓄積されている状態記述データ91に対応付け、状態記述データ受信フラグがオフであれば新規のユーザフィードバックとして蓄積させる。また、イベント受信フラグがオフであればそのユーザフィードバックは無視する。   In step S60, the notification determination table update unit 64 turns on the user feedback reception flag, and the reception unit 61 turns off the event reception flag. In step S61, if the state description data reception flag is on at this time, the notification determination table update unit 64 performs user feedback (“OK (would like to be notified in the future)” or “NG (does not notify in the future). Is also associated with the state description data 91 stored in the state description data storage unit 63, and is stored as new user feedback if the state description data reception flag is off. If the event reception flag is off, the user feedback is ignored.

すなわち、ユーザフィードバックを状態記述データ91に対応付けて通知判定テーブルとして蓄積することにより、ユーザが意図するイベントのみを検知し、通知することが可能になる。   That is, by storing user feedback in association with the state description data 91 as a notification determination table, it is possible to detect and notify only an event intended by the user.

ステップS62において、通知判定テーブル更新部64は、状態記述データ受信フラグおよびユーザフィードバック受信フラグが共にオンであるか否かを判定し、状態記述データ受信フラグおよびユーザフィードバック受信フラグが共にオンであると判定した場合、ステップS63に進み、通知判定テーブル更新処理を行う。この通知判定テーブル更新処理の詳細については、図16のフローチャートを参照して後述するが、この処理により、過去通知判定テーブル蓄積部107に蓄積される通知判定テーブルが更新される。   In step S62, the notification determination table update unit 64 determines whether or not both the state description data reception flag and the user feedback reception flag are on, and if both the state description data reception flag and the user feedback reception flag are on. When it determines, it progresses to step S63 and a notification determination table update process is performed. Details of the notification determination table update processing will be described later with reference to the flowchart of FIG. 16, but the notification determination table stored in the past notification determination table storage unit 107 is updated by this processing.

ステップS64において、通知判定テーブル更新部64は、ステップS63の処理により、過去の通知判定テーブルと異なる通知判定テーブルが作成され、過去通知判定テーブル蓄積部107に蓄積された場合には、その新しい通知判定テーブルを、送信部65を介してマルチセンサカメラ1に送信する。マルチセンサカメラ1は、この新しい通知判定テーブルを受信し、通知判定テーブル蓄積部122を更新する(上述した図11のステップS11)。   In step S64, when the notification determination table update unit 64 creates a notification determination table different from the past notification determination table by the processing in step S63 and stores it in the past notification determination table storage unit 107, the new notification is updated. The determination table is transmitted to the multi-sensor camera 1 via the transmission unit 65. The multi-sensor camera 1 receives this new notification determination table and updates the notification determination table storage unit 122 (step S11 in FIG. 11 described above).

ステップS65において、通知判定テーブル更新部64は、状態記述データ受信フラグおよびユーザフィードバック受信フラグをオフする。   In step S65, the notification determination table update unit 64 turns off the state description data reception flag and the user feedback reception flag.

ステップS65の処理の後、または、ステップS62において、状態記述データ受信フラグまたはユーザフィードバック受信フラグのうち、少なくともいずれか一方がオンではないと判定された場合、ステップS62に戻り、上述した処理が繰り返し実行される。   After the process of step S65 or when it is determined in step S62 that at least one of the state description data reception flag and the user feedback reception flag is not on, the process returns to step S62 and the above-described process is repeated. Executed.

次に、図16のフローチャートを参照して、図14のステップS63における通知判定テーブル更新処理の詳細について説明する。   Next, details of the notification determination table update processing in step S63 of FIG. 14 will be described with reference to the flowchart of FIG.

ステップS71において、通知判定テーブル更新部64の状態記述パターン比較部102は、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルをクリアする。ステップS72において、ユーザフィードバック判定部101は、状態記述データ蓄積部63に蓄積されている状態記述データ91とそれに対応するユーザフィードバックを読み込む。   In step S <b> 71, the state description pattern comparison unit 102 of the notification determination table update unit 64 clears the temporary notification determination table stored in the temporary notification determination table storage unit 105. In step S <b> 72, the user feedback determination unit 101 reads the state description data 91 stored in the state description data storage unit 63 and the user feedback corresponding thereto.

ステップS73において、ユーザフィードバック判定部101は、ステップS72の処理で読み込んだユーザフィードバックが「NG(今後はイベントとして検出しなくてもよい)」を示すデータであるか否かを判定し、ユーザフィードバックが「NG」を示すデータであると判定した場合、その判定結果を状態記述データ91(図8)とともに状態記述パターン比較部102に供給し、ステップS74に進む。   In step S73, the user feedback determination unit 101 determines whether or not the user feedback read in the process of step S72 is data indicating “NG (it may not be detected as an event in the future)”. Is determined to be data indicating “NG”, the determination result is supplied to the state description pattern comparison unit 102 together with the state description data 91 (FIG. 8), and the process proceeds to step S74.

ステップS74において、状態記述パターン比較部102は、ユーザフィードバック判定部101から供給された状態記述データ91に含まれる状態番号(図7において規定した番号)のパターンと、仮通知判定テーブル蓄積部105に蓄積されている通知判定テーブル111(図10)の状態記述データ121に含まれる状態番号のパターンを比較する。   In step S 74, the state description pattern comparison unit 102 stores the pattern of the state number (number defined in FIG. 7) included in the state description data 91 supplied from the user feedback determination unit 101 and the provisional notification determination table storage unit 105. The state number patterns included in the state description data 121 of the accumulated notification determination table 111 (FIG. 10) are compared.

ステップS75において、状態記述パターン比較部102は、ステップS74の処理による比較の結果、パターンが一致するものがあるか否か、例えば、状態番号1、状態番号2、状態番号4の順のパターンに一致するものが通知判定テーブル111にあるか否かを判定し、パターンが一致するものがあると判定した場合、状態記述データ91とそれに一致するパターン(すなわち通知判定テーブル111)を既存パターン更新部104に供給し、ステップS76に進む。   In step S75, the state description pattern comparison unit 102 determines whether there is a pattern matching as a result of the comparison in step S74, for example, in the order of state number 1, state number 2, and state number 4. If it is determined whether there is a match in the notification determination table 111, and it is determined that there is a match in the pattern, the state description data 91 and the pattern that matches the state description data 91 (that is, the notification determination table 111) are displayed. The process proceeds to step S76.

ステップS76において、既存パターン更新部104は、状態記述パターン比較部102から供給された、現在の状態記述データ91に含まれる継続時間と、状態記述データ91に一致するパターンに対応する継続時間の最小値および最大値を比較する。   In step S76, the existing pattern update unit 104 supplies the minimum duration of the duration included in the current state description data 91 supplied from the state description pattern comparison unit 102 and the pattern corresponding to the state description data 91. Compare the value and the maximum value.

そして既存パターン更新部104は、比較の結果、一致するパターンに対応する継続時間の最小値より現在の状態記述データ91の継続時間の方が短いと判断した場合、一致するパターンの継続時間の最小値を現在の状態記述データ91の継続時間に置き換え(更新し)、また、一致するパターンに対応する継続時間の最大値より現在の状態記述データ91の継続時間の方が長いと判断した場合、一致するパターンの継続時間の最大値を現在の状態記述データ91の継続時間に置き換え(更新し)、仮通知判定テーブル蓄積部105に更新通知判定テーブルとして蓄積させる。   Then, when the existing pattern update unit 104 determines that the duration of the current state description data 91 is shorter than the minimum value of the duration corresponding to the matching pattern as a result of the comparison, the minimum duration of the matching pattern When the value is replaced (updated) with the duration of the current state description data 91, or when it is determined that the duration of the current state description data 91 is longer than the maximum value of the duration corresponding to the matching pattern, The maximum value of the duration of the matching pattern is replaced (updated) with the duration of the current state description data 91, and is stored in the temporary notification determination table storage unit 105 as an update notification determination table.

ステップS75において、ステップS74の処理による比較の結果、パターンが一致するものがないと判定された場合、状態記述データ91を新規パターン作成部103に供給し、ステップS77に進む。   If it is determined in step S75 that the patterns do not match as a result of the comparison in step S74, the state description data 91 is supplied to the new pattern creation unit 103, and the process proceeds to step S77.

ステップS77において、新規パターン作成部103は、状態記述パターン比較部102から供給された状態記述データ91に含まれる状態番号とそれに対応する継続時間を、新規の通知判定テーブルの継続時間の最小値および最大値として仮通知判定テーブル蓄積部105に追加し、そこに蓄積させる。   In step S77, the new pattern creation unit 103 uses the state number included in the state description data 91 supplied from the state description pattern comparison unit 102 and the corresponding duration as the minimum value of the duration of the new notification determination table and The maximum value is added to the temporary notification determination table storage unit 105 and stored therein.

ステップS76の処理の後、またはステップS77の処理の後、ステップS78において、ユーザフィードバック判定部101は、状態記述データ蓄積部63に蓄積されている全ての状態記述データ91とそれに対応するユーザフィードバックを読み込んだか否かを判定し、未だ読み込んでいないデータがあると判定した場合、ステップS72に戻り、上述した処理を繰り返し実行する。   After the process of step S76 or after the process of step S77, in step S78, the user feedback determination unit 101 receives all the state description data 91 stored in the state description data storage unit 63 and the corresponding user feedback. It is determined whether or not data has been read. If it is determined that there is data that has not yet been read, the process returns to step S72 and the above-described processing is repeatedly executed.

ステップS78において、全ての状態記述データ91とそれに対応するユーザフィードバックを読み込んだと判定された場合、ステップS79に進み、テーブル比較部106は、過去通知判定テーブル蓄積部107に蓄積されている過去の通知判定テーブルと、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルを比較する。   If it is determined in step S78 that all the state description data 91 and the corresponding user feedback have been read, the process proceeds to step S79, and the table comparison unit 106 stores the past information stored in the past notification determination table storage unit 107. The notification determination table is compared with the temporary notification determination table stored in the temporary notification determination table storage unit 105.

ステップS80において、テーブル比較部106は、ステップS79の処理による比較の結果、過去の通知判定テーブルと仮の通知判定テーブルが同じであるか否かを判定し、同じではないと判定した場合、ステップS81に進み、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルを、送信部65に送信し、ステップS82に進む。これにより、図15のステップS64において、マルチセンサカメラ1に仮の通知判定テーブルが送信される。   In step S80, the table comparison unit 106 determines whether or not the past notification determination table and the provisional notification determination table are the same as a result of the comparison in step S79. Proceeding to S81, the provisional notification determination table stored in provisional notification determination table storage unit 105 is transmitted to transmission unit 65, and the process proceeds to step S82. Thereby, a temporary notification determination table is transmitted to the multi-sensor camera 1 in step S64 of FIG.

ステップS80において、過去の通知判定テーブルと仮の通知判定テーブルが同じであると判定された場合、またはステップS81の処理の後、ステップS82において、テーブル比較部106は、仮通知判定テーブル蓄積部105に蓄積されている仮の通知判定テーブルを過去通知判定テーブル蓄積部107に供給し、更新通知判定テーブルとして更新させる。   If it is determined in step S80 that the past notification determination table is the same as the provisional notification determination table, or after the processing in step S81, the table comparison unit 106 in step S82 causes the temporary notification determination table storage unit 105 to The provisional notification determination table stored in the past notification is supplied to the past notification determination table storage unit 107 and updated as an update notification determination table.

以上の処理により、図10に示したような通知判定テーブル111が過去通知判定テーブル蓄積部107に蓄積される。いわば、この通知判定テーブル111には、イベントとして通知しなくてよい場合のパターンが記憶されることになる。   Through the above processing, the notification determination table 111 as shown in FIG. 10 is stored in the past notification determination table storage unit 107. In other words, the notification determination table 111 stores a pattern when it is not necessary to notify as an event.

次に、図17のフローチャートを参照して、図15の処理ボックス2の処理に対応して実行されるリモートコントローラ4における処理について説明する。なお、この処理は、処理ボックス2の送信部66により、図15のステップS64の処理が実行されたとき、開始される。   Next, processing in the remote controller 4 that is executed corresponding to the processing in the processing box 2 in FIG. 15 will be described with reference to the flowchart in FIG. This process is started when the process of step S64 in FIG. 15 is executed by the transmission unit 66 of the process box 2.

ステップS91において、受信部71は、処理ボックス2より通知イベントを受信したか否かを判定し、通知イベントを受信するまで待機する。そして、通知イベントを受信したと判定した場合、ステップS92に進み、受信部71は、(上述した図15のステップS53の処理により)処理ボックス2から通知イベントとともに送信されてきた通知データに基づくイベント画像(通知画像データ)を呈示部72に呈示させる。   In step S91, the receiving unit 71 determines whether or not a notification event has been received from the processing box 2, and waits until a notification event is received. If it is determined that a notification event has been received, the process proceeds to step S92, where the receiving unit 71 performs an event based on the notification data transmitted together with the notification event from the processing box 2 (by the process of step S53 in FIG. 15 described above). An image (notification image data) is presented to the presentation unit 72.

ユーザは、呈示部72に呈示されたイベント画像を見て、入力部73を操作し、判断(例えば、いま呈示されているイベントは今後も知らせて欲しいイベントであるか、あるいは、今後は知らせなくてよいイベントであるのか)を入力する。   The user looks at the event image presented in the presenting unit 72 and operates the input unit 73 to determine (for example, whether the presently presented event is an event that he / she wants to keep informed or will not inform in the future) Is it a good event?

ステップS93において、入力部73は、呈示されたイベントに対するユーザからの判断(ユーザフィードバック)が入力されたか否かを判定し、ユーザフィードバックが入力されたと判定した場合、ユーザFB信号を、送信部74に供給し、ステップS94に進む。   In step S93, the input unit 73 determines whether or not a judgment (user feedback) from the user with respect to the presented event has been input. If the input unit 73 determines that the user feedback has been input, the input unit 73 transmits the user FB signal to the transmission unit 74. To proceed to step S94.

ステップS94において、送信部74は、入力部73から供給されたユーザFB信号を処理ボックス2に送信する。処理ボックス2は、これを受信し、状態記述データ蓄積部63に蓄積されている状態記述データ91に対応付ける(図15のステップS61)。   In step S94, the transmission unit 74 transmits the user FB signal supplied from the input unit 73 to the processing box 2. The processing box 2 receives this and associates it with the state description data 91 stored in the state description data storage unit 63 (step S61 in FIG. 15).

ステップS94の処理の後、または、ステップS93において、ユーザフィードバックが入力されていないと判定された場合、処理はステップS91に戻り、上述した処理が繰り返し実行される。   After the process of step S94 or when it is determined in step S93 that no user feedback has been input, the process returns to step S91 and the above-described process is repeatedly executed.

以上のように、ユーザからのフィードバックに基づいて、イベント通知の判定に用いる通知判定テーブルを変化(更新)させるようにしたので、ユーザが意図するイベントのみを検出することができ、かつ、イベントを通知する場合にのみ、CCDカメラ21の電源をオンするようにしたので、無駄なバッテリ消費を抑えることができる。   As described above, since the notification determination table used for determining event notification is changed (updated) based on the feedback from the user, only the event intended by the user can be detected, and the event Since the power of the CCD camera 21 is turned on only when notification is made, useless battery consumption can be suppressed.

また以上においては、図7に示したように、フォトセンサ22−1乃至22−3の反応状態に応じて規定される状態番号およびその反応継続時間を含む状態記述データ91(図8)を記述し、それをイベント通知に用いるようにしたが、これに限らず、例えば、あるフォトセンサが反応を開始してから次のフォトセンサが反応を開始するまで、あるいは、あるフォトセンサの反応が終了してから次のフォトセンサの反応が終了するまでの時間に基づいて規定される状態番号およびその反応継続時間を含む状態記述データ91を記述し、それをイベント通知に用いるようにすることも可能である。   Further, in the above description, as shown in FIG. 7, the state description data 91 (FIG. 8) including the state number defined according to the reaction state of the photosensors 22-1 to 22-3 and the reaction duration is described. However, this is not limited to this, but it is not limited to this. For example, a response from one photosensor until the next photosensor starts a response or the response of a photosensor ends. It is also possible to describe the state description data 91 including the state number defined on the basis of the time from when the next photosensor response is completed and the duration of the reaction, and use the state description data 91 for event notification. It is.

図18と図19は、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応に基づいて、状態番号を規定する例を説明する図である。ここで、立ち上がり点間とは、あるフォトセンサが反応を開始する点と、次のフォトセンサが反応を開始する点の区間を意味する。   18 and 19 are diagrams illustrating an example in which the state number is defined based on the reaction between rising points among the reactions of the photosensors 22-1 to 22-3. Here, the interval between rising points means a section between a point at which a certain photosensor starts a reaction and a point at which the next photosensor starts a reaction.

図18は、人物131が、フォトセンサ22−1乃至22−3の監視領域31−1乃至31−3において、図中矢印で示される方向(図中、左から右方向)に行動している様子を模式的に示している。フォトセンサ22−1乃至22−3は、それぞれ、常時、監視領域31−1乃至31−3内の平均輝度を検知信号として出力しており、図18に示されるように人物131が行動した場合、それに対応して、検知信号の出力レベルが変化する(図5)。   In FIG. 18, the person 131 is acting in the direction indicated by the arrow in the drawing (from the left to the right in the drawing) in the monitoring areas 31-1 to 31-3 of the photosensors 22-1 to 22-3. The situation is shown schematically. Each of the photo sensors 22-1 to 22-3 always outputs the average luminance in the monitoring areas 31-1 to 31-3 as a detection signal, and the person 131 acts as shown in FIG. Correspondingly, the output level of the detection signal changes (FIG. 5).

図18の例の場合、人物131の行動により、まず、フォトセンサ22−3が出力する検知信号の出力レベルが変化し、次に、フォトセンサ22−2が出力する検知信号の出力レベルが変化し、さらにその後、フォトセンサ22−1が出力する検知信号の出力レベルが変化する。ここで、フォトセンサ22−3が反応を開始する立ち上がり点P1から、次の(隣接する監視領域の)フォトセンサであるフォトセンサ22−2が反応を開始する立ち上がり点P2の間の状態番号を“T0”とし、フォトセンサ22−2が反応を開始する立ち上がり点P2から、次のフォトセンサであるフォトセンサ22−1が反応を開始する立ち上がり点P3の間の状態番号を“T1”とする。   In the case of the example in FIG. 18, first, the output level of the detection signal output from the photosensor 22-3 changes due to the action of the person 131, and then the output level of the detection signal output from the photosensor 22-2 changes. After that, the output level of the detection signal output from the photosensor 22-1 changes. Here, the state number between the rising point P1 at which the photosensor 22-3 starts the reaction and the rising point P2 at which the photosensor 22-2, which is the next (adjacent monitoring area) photosensor, starts the reaction is set. “T0” is set, and the state number between the rising point P2 at which the photosensor 22-2 starts the reaction and the rising point P3 at which the next photosensor 22-1 starts the reaction is set to “T1”. .

図19は、人物131が、フォトセンサ22−1乃至22−3の監視領域31−1乃至31−3において、図中矢印で示される方向(図中、右から左方向)に行動している様子を模式的に示している。フォトセンサ22−1乃至22−3は、上述したように、それぞれ、常時、監視領域31−1乃至31−3内の平均輝度を検知信号として出力しており、図19に示されるように人物131が行動した場合、それに対応して、検知信号の出力レベルが変化する(図5)。   In FIG. 19, the person 131 is acting in the direction indicated by the arrow in the drawing (from the right to the left in the drawing) in the monitoring areas 31-1 to 31-3 of the photosensors 22-1 to 22-3. The situation is shown schematically. As described above, the photosensors 22-1 to 22-3 always output the average luminance in the monitoring areas 31-1 to 31-3 as a detection signal, as shown in FIG. 19. When 131 acts, the output level of the detection signal changes correspondingly (FIG. 5).

図19の例の場合、人物131の行動により、まず、フォトセンサ22−1が出力する検知信号の出力レベルが変化し、次に、フォトセンサ22−2が出力する検知信号の出力レベルが変化し、さらにその後、フォトセンサ22−3が出力する検知信号の出力レベルが変化する。ここで、フォトセンサ22−1が反応を開始する立ち上がり点P11から、次のフォトセンサであるフォトセンサ22−2が反応を開始する立ち上がり点P12の間の状態番号を“T3”とし、フォトセンサ22−2が反応を開始する立ち上がり点P12から、次のフォトセンサであるフォトセンサ22−3が反応を開始する立ち上がり点P13の間の状態番号を“T2”とする。   In the case of the example in FIG. 19, first, the output level of the detection signal output from the photosensor 22-1 changes due to the action of the person 131, and then the output level of the detection signal output from the photosensor 22-2 changes. After that, the output level of the detection signal output from the photosensor 22-3 changes. Here, the state number between the rising point P11 at which the photosensor 22-1 starts the reaction and the rising point P12 at which the next photosensor 22-2 starts the reaction is “T3”, and the photosensor The state number between the rising point P12 where 22-2 starts the reaction and the rising point P13 where the photosensor 22-3 which is the next photosensor starts the reaction is “T2”.

状態値保持部45は、以上のようにして規定された状態番号を状態値として保持する。状態判定部44は、センサ反応検知部42から供給されたセンサ反応結果と状態値保持部45で保持されている状態値に基づいて、例えば、図20または図21に示すような状態記述データ91−1,91−2を記述する。   The state value holding unit 45 holds the state number defined as described above as a state value. Based on the sensor reaction result supplied from the sensor reaction detector 42 and the state value held in the state value holding unit 45, the state determination unit 44, for example, state description data 91 as shown in FIG. -1, 91-2 are described.

具体的には、図18に示した人物131の行動に応じて、図20に示されるように、“T0”の状態番号およびその反応継続時間を含む状態記述データ91−1が記述され、“T1”の状態番号およびその反応継続時間を含む状態記述データ91−2が記述される。また、図19に示した人物131の行動に応じて、図21に示されるように、“T3”の状態番号およびその反応継続時間を含む状態記述データ91−1が記述され、“T2”の状態番号およびその反応継続時間を含む状態記述データ91−2が記述される。   Specifically, according to the action of the person 131 shown in FIG. 18, as shown in FIG. 20, the state description data 91-1 including the state number “T0” and its reaction duration is described. State description data 91-2 including the state number of T1 ″ and its reaction duration is described. Further, according to the action of the person 131 shown in FIG. 19, as shown in FIG. 21, the state description data 91-1 including the state number of “T3” and its reaction duration is described, and “T2” State description data 91-2 including the state number and its reaction duration is described.

そして、状態判定部44は、状態記述データ91−1,91−2を時間軸方向に連続的に並べたものを状態出力部48に出力する。   Then, the state determination unit 44 outputs the state description data 91-1 and 91-2 continuously arranged in the time axis direction to the state output unit 48.

このように、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応に応じて、状態番号およびその反応継続時間を含む状態記述データ91を記述することで、監視領域内における人物の行動をおおよそ推定することができる。   As described above, by describing the state description data 91 including the state number and the reaction duration in accordance with the reaction between the rising points among the reactions of the photosensors 22-1 to 22-3, A person's behavior can be roughly estimated.

また、図7で規定した状態番号においては、横方向と奥行き方向を検知することができるのに対し、図18と図19で規定した状態番号においては、横方向のみを検知することになり(すなわち、奥行き方向の検知は省略されることになり)、処理能力を向上させることができる。   In the state number defined in FIG. 7, the horizontal direction and the depth direction can be detected, whereas in the state number defined in FIGS. 18 and 19, only the horizontal direction is detected ( That is, detection in the depth direction is omitted), and the processing capability can be improved.

さらに、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応に基づいて、状態番号を規定するだけでなく、立ち上がり点間の反応および立ち下がり点間の反応の両方に基づいて、状態番号を規定することもできる。   Further, among the reactions of the photosensors 22-1 to 22-3, not only the state number is defined based on the reaction between the rising points, but also based on both the reaction between the rising points and the reaction between the falling points. The state number can also be defined.

図22は、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応および立ち下がり点間の反応の両方に基づいて、状態番号を規定する例を説明する図である。また図22は、フォトセンサ22−1乃至22−3の監視領域31−1乃至31−3において、人物131−1乃至131−3が図中矢印で示される方向(図中、フォトセンサ22−1乃至22−3から離れた位置で左から右方向、右から左方向、またはフォトセンサ22−1乃至22−3に近い位置で左から右方向)に行動している様子を模式的に示している。ここで、立ち下がり点間とは、あるフォトセンサの反応が終了する点と、次のフォトセンサの反応が終了する点の区間を意味する。   FIG. 22 is a diagram illustrating an example in which the state number is defined based on both the reaction between rising points and the reaction between falling points among the reactions of the photosensors 22-1 to 22-3. FIG. 22 shows the directions of the persons 131-1 to 131-3 indicated by arrows in the monitoring areas 31-1 to 31-3 of the photosensors 22-1 to 22-3 (the photosensor 22- 1 to 22-3 schematically showing a behavior from left to right, right to left, or from left to right at positions close to the photo sensors 22-1 to 22-3). ing. Here, the interval between the falling points means a section between a point at which the reaction of a certain photo sensor is finished and a point at which the reaction of the next photo sensor is finished.

フォトセンサ22−1乃至22−3は、上述したように、それぞれ、常時、監視領域31−1乃至31−3内の平均輝度を検知信号として出力しており、図22に示されるように人物131−1乃至131−3がそれぞれ行動した場合、それらに対応して、検知信号の出力レベルが変化する(図5)。   As described above, the photosensors 22-1 to 22-3 always output the average luminance in the monitoring areas 31-1 to 31-3 as a detection signal, as shown in FIG. When 131-1 thru | or 131-3 act each, the output level of a detection signal changes corresponding to them (FIG. 5).

図22の例の場合、フォトセンサ22−1乃至22−3から最も離れた位置を、図中、左から右方向に移動する人物131−1の行動に応じて、フォトセンサ22−3が反応を開始する立ち上がり点P21から、次のフォトセンサであるフォトセンサ22−2が反応を開始する立ち上がり点P22の間の状態番号を“T0”とし、フォトセンサ22−2が反応を開始する立ち上がり点P22から、次のフォトセンサであるフォトセンサ22−1が反応を開始する立ち上がり点P23の間の状態番号を“T1”とし、フォトセンサ22−3の反応が終了する立ち下り点P24から、次のフォトセンサ22−2の反応が終了する立ち下がり点P25の間の状態番号を“T2”とし、フォトセンサ22−2の反応が終了する立ち下り点P25から、次のフォトセンサ22−1の反応が終了する立ち下がり点P26の間の状態番号を“T3”とする。   In the case of the example of FIG. 22, the photo sensor 22-3 reacts at the position farthest from the photo sensors 22-1 to 22-3 according to the action of the person 131-1 moving from left to right in the figure. The state number between the rising point P21 at which the photosensor 22-2 is started and the rising point P22 at which the next photosensor 22-2 starts the reaction is "T0", and the rising point at which the photosensor 22-2 starts the reaction From P22, the state number between the rising point P23 at which the photosensor 22-1 as the next photosensor starts reaction is set to “T1”, and from the falling point P24 at which the reaction of the photosensor 22-3 ends, The state number between the falling points P25 where the reaction of the photosensor 22-2 ends is “T2”, and from the falling point P25 where the reaction of the photosensor 22-2 ends, Reaction of the photo sensor 22-1 and the state number "T3" between the falling point P26 to the end of.

また、人物131−1よりフォトセンサ22−1乃至22−3に近い位置を、図中、右から左方向に移動する人物131−2の行動に応じて、フォトセンサ22−1が反応を開始する立ち上がり点P26から、次のフォトセンサであるフォトセンサ22−2が反応を開始する立ち上がり点P25の間の状態番号を“T3”とし、フォトセンサ22−2が反応を開始する立ち上がり点P25から、次のフォトセンサであるフォトセンサ22−3が反応を開始する立ち上がり点P24の間の状態番号を“T2”とし、フォトセンサ22−1の反応が終了する立ち下り点P23から、次のフォトセンサ22−2の反応が終了する立ち下がり点P22の間の状態番号を“T1”とし、フォトセンサ22−2の反応が終了する立ち下り点P22から、次のフォトセンサ22−3の反応が終了する立ち下がり点P21の間の状態番号を“T0”とする。   Further, the photosensor 22-1 starts a reaction in response to the action of the person 131-2 moving from the right to the left in the figure at a position closer to the photosensors 22-1 to 22-3 than the person 131-1. The state number between the rising point P26 where the photosensor 22-2, which is the next photosensor, and the rising point P25 where the reaction starts is “T3”, and from the rising point P25 where the photosensor 22-2 starts the reaction. The state number between the rising points P24 at which the photosensor 22-3 as the next photosensor starts the reaction is set to “T2”, and from the falling point P23 at which the reaction of the photosensor 22-1 ends, the next photo The state number between the falling points P22 at which the reaction of the sensor 22-2 ends is “T1”, and from the falling point P22 at which the reaction of the photosensor 22-2 ends, the next The reaction of the photo sensor 22-3 and the state number "T0" between the falling point P21 to end.

さらに、フォトセンサ22−1乃至22−3から最も近い位置を、図中、左から右方向に移動する人物131−3の行動に応じて、フォトセンサ22−3が反応を開始する立ち上がり点P21から、次のフォトセンサであるフォトセンサ22−2が反応を開始する立ち上がり点P22の間の状態番号を“T0”とし、フォトセンサ22−2の反応が終了する立ち下がり点P23から、次のフォトセンサであるフォトセンサ22−2の反応が終了する立ち下がり点P25の間の状態番号を“T2”とし、フォトセンサ22−2が反応を開始する立ち上がり点P22から、次のフォトセンサ22−2が反応を開始する立ち上がり点P23の間の状態番号を“T1”とし、フォトセンサ22−2が反応を修了する立ち下り点P25から、次のフォトセンサ22−1の反応が終了する立ち下がり点P26の間の状態番号を“T3”とする。   Furthermore, the rising point P21 at which the photosensor 22-3 starts reacting at the position closest to the photosensors 22-1 to 22-3 in accordance with the action of the person 131-3 moving from left to right in the drawing. From the falling point P23 at which the reaction of the photosensor 22-2 ends, the state number between the rising points P22 at which the photosensor 22-2 as the next photosensor starts the reaction is set to “T0”. The state number between the falling points P25 at which the reaction of the photosensor 22-2 as the photosensor ends is “T2”, and from the rising point P22 at which the photosensor 22-2 starts the reaction, the next photosensor 22- The state number between the rising points P23 at which 2 starts reaction is set to “T1”, and the next photo from the falling point P25 at which the photosensor 22-2 completes the reaction. Reaction of the capacitors 22-1 and the state number "T3" between the falling point P26 to the end.

状態値保持部45は、以上のようにして規定された状態番号を状態値として保持する。状態判定部44は、センサ反応検知部42から供給されたセンサ反応結果と状態値保持部45で保持されている状態値に基づいて、例えば、図23に示すような状態記述データ91−1,91−2を記述する。   The state value holding unit 45 holds the state number defined as described above as a state value. Based on the sensor reaction result supplied from the sensor reaction detection unit 42 and the state value held in the state value holding unit 45, the state determination unit 44, for example, state description data 91-1, 91-2 is described.

具体的には、図22に示した人物131−1の行動に応じて、図23Aに示されるように、“T0”の状態番号およびその反応継続時間を含む状態記述データ91−1が記述され、“T1”の状態番号およびその反応継続時間を含む状態記述データ91−2が記述され、“T2”の状態番号およびその反応継続時間を含む状態記述データ91−3が記述され、“T3”の状態番号およびその反応継続時間を含む状態記述データ91−4が記述される。   Specifically, according to the action of the person 131-1 shown in FIG. 22, as shown in FIG. 23A, state description data 91-1 including the state number “T0” and its reaction duration is described. , State description data 91-2 including the state number of "T1" and its reaction duration is described, state description data 91-3 including the state number of "T2" and its reaction duration, and "T3" State description data 91-4 including the state number and the reaction duration is described.

また図22に示した人物131−2の行動に応じて、図23Bに示されるように、“T3”の状態番号およびその反応継続時間を含む状態記述データ91−1が記述され、“T2”の状態番号およびその反応継続時間を含む状態記述データ91−2が記述され、“T1”の状態番号およびその反応継続時間を含む状態記述データ91−3が記述され、“T0”の状態番号およびその反応継続時間を含む状態記述データ91−4が記述される。   Further, according to the action of the person 131-2 shown in FIG. 22, as shown in FIG. 23B, state description data 91-1 including the state number of “T3” and its reaction duration is described, and “T2”. State description data 91-2 including the state number and its reaction duration is described, state description data 91-3 including the state number of "T1" and its reaction duration is described, and the state number of "T0" and State description data 91-4 including the reaction duration is described.

さらに図22に示した人物131−3の行動に応じて、図23Cに示されるように、“T0”の状態番号およびその反応継続時間を含む状態記述データ91−1が記述され、“T2”の状態番号およびその反応継続時間を含む状態記述データ91−2が記述され、“T1”の状態番号およびその反応継続時間を含む状態記述データ91−3が記述され、“T3”の状態番号およびその反応継続時間を含む状態記述データ91−4が記述される。   Further, according to the action of the person 131-3 shown in FIG. 22, as shown in FIG. 23C, state description data 91-1 including the state number of “T0” and its reaction duration is described, and “T2”. State description data 91-2 including the state number and its reaction duration is described, state description data 91-3 including the state number of "T1" and its reaction duration is described, and the state number of "T3" and State description data 91-4 including the reaction duration is described.

そして、状態判定部44は、状態記述データ91−1,91−2を時間軸方向に連続的に並べたものを状態出力部48に出力する。   Then, the state determination unit 44 outputs the state description data 91-1 and 91-2 continuously arranged in the time axis direction to the state output unit 48.

ここで、人物131−1と人物131−3は、同じ方向に行動しているのにもかかわらず、状態記述データ91に記述される状態番号の状態遷移が異なっている。すなわち、図23Aの状態記述データ91−2には、“T1”の状態番号が記述されているのに対し、図23Cの状態記述データ91−2には、“T2”の状態番号が記述されている。また、図23Aの状態記述データ91−3には、“T2”の状態番号が記述されているのに対し、図23Cの状態記述データ91−2には、“T1”の状態番号が記述されている。   Here, although the person 131-1 and the person 131-3 are acting in the same direction, the state transitions of the state numbers described in the state description data 91 are different. That is, the state description data 91-2 in FIG. 23A describes the state number “T1”, whereas the state description data 91-2 in FIG. 23C describes the state number “T2”. ing. In addition, the state description data 91-3 in FIG. 23A describes the state number “T2”, whereas the state description data 91-2 in FIG. 23C describes the state number “T1”. ing.

そこで、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応および立ち下り点間の反応の両方に基づいて、状態番号を規定し、状態記述データ91を記述しているものを、図24と図25に示すように、立ち上がり点間の反応と立ち下り点間の反応にそれぞれ分類して、状態記述データ91を記述する。   Therefore, among the reactions of the photosensors 22-1 to 22-3, the state number is defined based on both the reaction between the rising points and the reaction between the falling points, and the state description data 91 is described. 24 and 25, the state description data 91 is described by classifying the reaction between rising points and the reaction between falling points.

図24は、図23に示した状態記述データにおいて、フォトセンサ22−1乃至22−3の立ち上がり点間の反応に基づいて記述された状態記述データを抽出した場合の例を示す図である。   FIG. 24 is a diagram illustrating an example when state description data described based on the reaction between rising points of the photosensors 22-1 to 22-3 is extracted from the state description data illustrated in FIG.

図24Aは、図23Aに示した状態記述データ91−1乃至91−4のうち、フォトセンサ22−1乃至22−3の立ち上がり点間の反応である状態記述データが抽出されたものを示している。すなわち、状態記述データ91−1には、フォトセンサ22−3とフォトセンサ22−2の立ち上がり点間の反応として、“T0”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、フォトセンサ22−2とフォトセンサ22−1の立ち上がり点間の反応として、“T1”の状態番号およびその反応継続時間が記述される。   FIG. 24A shows the state description data 91-1 to 91-4 shown in FIG. 23A from which state description data that is a reaction between rising points of the photosensors 22-1 to 22-3 is extracted. Yes. That is, the state description data 91-1 describes the state number of “T0” and its reaction duration as a reaction between the rising points of the photosensor 22-3 and the photosensor 22-2. 2 describes a state number of “T1” and a reaction duration time as a reaction between the rising points of the photosensor 22-2 and the photosensor 22-1.

図24Bは、図23Bに示した状態記述データ91−1乃至91−4のうち、フォトセンサ22−1乃至22−3の立ち上がり点間の反応である状態記述データが抽出されたものを示している。すなわち、状態記述データ91−1には、フォトセンサ22−1とフォトセンサ22−2の立ち上がり点間の反応として、“T3”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、フォトセンサ22−2とフォトセンサ22−3の立ち上がり点間の反応として、“T2”の状態番号およびその反応継続時間が記述される。   FIG. 24B shows the state description data 91-1 to 91-4 shown in FIG. 23B from which state description data that is a reaction between the rising points of the photosensors 22-1 to 22-3 is extracted. Yes. That is, the state description data 91-1 describes the state number of “T3” and its reaction duration as a reaction between the rising points of the photosensor 22-1 and the photosensor 22-2. 2 describes a state number of “T2” and its reaction duration as a reaction between the rising points of the photosensor 22-2 and the photosensor 22-3.

図24Cは、図23Cに示した状態記述データ91−1乃至91−4のうち、フォトセンサ22−1乃至22−3の立ち上がり点間の反応である状態記述データが抽出されたものを示している。すなわち、状態記述データ91−1には、フォトセンサ22−3とフォトセンサ22−2の立ち上がり点間の反応として、“T0”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、フォトセンサ22−2とフォトセンサ22−1の立ち上がり点間の反応として、“T1”の状態番号およびその反応継続時間が記述される。   FIG. 24C shows the state description data 91-1 to 91-4 shown in FIG. 23C from which state description data that is a reaction between rising points of the photosensors 22-1 to 22-3 is extracted. Yes. That is, the state description data 91-1 describes the state number of “T0” and its reaction duration as a reaction between the rising points of the photosensor 22-3 and the photosensor 22-2. 2 describes a state number of “T1” and a reaction duration time as a reaction between the rising points of the photosensor 22-2 and the photosensor 22-1.

図25は、図23に示した状態記述データにおいて、フォトセンサ22−1乃至22−3の立ち下り点間の反応に基づいて記述された状態記述データを抽出した場合の例を示す図である。   FIG. 25 is a diagram illustrating an example of the case where state description data described based on a reaction between falling points of the photosensors 22-1 to 22-3 is extracted from the state description data illustrated in FIG. .

図25Aは、図23Aに示した状態記述データ91−1乃至91−4のうち、フォトセンサ22−1乃至22−3の立ち下がり点間の反応である状態記述データが抽出されたものを示している。すなわち、状態記述データ91−1には、フォトセンサ22−3とフォトセンサ22−2の立ち下がり点間の反応として、T2”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、フォトセンサ22−2とフォトセンサ22−1の立ち下がり点間の反応として、“T3”の状態番号およびその反応継続時間が記述される。   FIG. 25A shows the state description data 91-1 to 91-4 shown in FIG. 23A from which state description data that is a reaction between the falling points of the photosensors 22-1 to 22-3 is extracted. ing. That is, the state description data 91-1 describes the state number of T2 ″ and its reaction duration as a reaction between the falling points of the photosensor 22-3 and the photosensor 22-2. 2 describes the state number of “T3” and its reaction duration as a reaction between the falling points of the photosensor 22-2 and the photosensor 22-1.

図25Bは、図23Bに示した状態記述データ91−1乃至91−4のうち、フォトセンサ22−1乃至22−3の立ち下がり点間の反応である状態記述データが抽出されたものを示している。すなわち、状態記述データ91−1には、フォトセンサ22−1とフォトセンサ22−2の立ち下がり点間の反応として、“T1”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、フォトセンサ22−2とフォトセンサ22−3の立ち下がり点間の反応として、“T0”の状態番号およびその反応継続時間が記述される。   FIG. 25B shows the state description data 91-1 to 91-4 shown in FIG. 23B from which state description data that is a reaction between the falling points of the photosensors 22-1 to 22-3 is extracted. ing. That is, the state description data 91-1 describes the state number of “T1” and its reaction duration as a reaction between the falling points of the photosensor 22-1 and the photosensor 22-2. -2 describes the state number of “T0” and its reaction duration as a reaction between the falling points of the photosensor 22-2 and the photosensor 22-3.

図25Cは、図23Cに示した状態記述データ91−1乃至91−4のうち、フォトセンサ22−1乃至22−3の立ち下がり点間の反応である状態記述データが抽出されたものを示している。すなわち、状態記述データ91−1には、フォトセンサ22−3とフォトセンサ22−2の立ち下がり点間の反応として、“T2”の状態番号およびその反応継続時間が記述され、状態記述データ91−2には、フォトセンサ22−2とフォトセンサ22−1の立ち下がり点間の反応として、“T3”の状態番号およびその反応継続時間が記述される。   FIG. 25C shows the state description data 91-1 to 91-4 shown in FIG. 23C from which state description data that is a reaction between the falling points of the photosensors 22-1 to 22-3 is extracted. ing. That is, the state description data 91-1 describes the state number of “T2” and its reaction duration as a reaction between the falling points of the photosensor 22-3 and the photosensor 22-2. -2 describes the state number of “T3” and its reaction duration as a reaction between the falling points of the photosensor 22-2 and the photosensor 22-1.

このように、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応および立ち下り点間の反応の両方に基づいて、状態番号を規定し、状態記述データ91を記述しているものを、図24と図25に示したように、立ち上がり点間の反応と立ち下り点間の反応にそれぞれ分類して状態遷移を比較することにより、人物131−1と人物131−3(図22)が行動する場合において、奥行き方向の位置が異なったとしても同じ状態記述データ91を得ることができる。   As described above, among the reactions of the photosensors 22-1 to 22-3, the state number is defined based on both the reaction between the rising points and the reaction between the falling points, and the state description data 91 is described. 24 and FIG. 25, the person 131-1 and the person 131-3 (by comparing the state transitions by classifying the reaction between the rising points and the reaction between the falling points, respectively, as shown in FIGS. In the case where FIG. 22) acts, even if the position in the depth direction is different, the same state description data 91 can be obtained.

さらに、図24Aと図24Cに示したように、または、図25Aと図25Cに示したように、同じ状態記述データ91においては、それぞれの反応継続時間を比較し、比較の結果、継続時間が近いと判定した場合には、同じような行動をしたと推定することができる。   Furthermore, as shown in FIG. 24A and FIG. 24C, or as shown in FIG. 25A and FIG. 25C, in the same state description data 91, the respective reaction continuation times are compared. If it is determined that they are close, it can be estimated that a similar action has been taken.

次に、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応および立ち下り点間の反応の両方に基づいて、状態番号を規定し、状態記述データ91を記述したものを利用したマルチセンサカメラ1における処理について、図26のフローチャートを参照して説明する。なお、この処理は、基本的に、図11のフローチャートを参照して上述した処理と同様であり、ここでは、異なる処理ステップのみ説明する。   Next, among the reactions of the photosensors 22-1 to 22-3, the state number is defined based on both the reaction between the rising points and the reaction between the falling points, and the state description data 91 is described. The processing in the multi-sensor camera 1 used will be described with reference to the flowchart of FIG. This process is basically the same as the process described above with reference to the flowchart of FIG. 11, and only different process steps will be described here.

ステップS101乃至ステップS103は、図11のステップS1乃至S3の処理と同様であるため、その説明は省略する。そして、ステップS103において、全てのフォトセンサについて処理を実行したと判定された場合、ステップS104に進み、状態判定部44は、状態判定処理を行う。この状態判定処理の詳細については、図27のフローチャートを参照して後述するが、この処理により、フォトセンサ22−1乃至22−3が立ち上がり点の反応であるか、または、立ち下り点の反応であるかが判断される。   Steps S101 to S103 are the same as the processes of steps S1 to S3 in FIG. If it is determined in step S103 that the process has been executed for all the photosensors, the process proceeds to step S104, and the state determination unit 44 performs a state determination process. The details of this state determination processing will be described later with reference to the flowchart of FIG. 27, but this processing causes the photosensors 22-1 to 22-3 to respond to a rising point or a falling point. Is determined.

ステップS105において、状態判定部44は、全てのデータを読み込んだか否かを判定し、未だ読み込んでいないデータがあると判定した場合、ステップS104に戻り、上述した処理を繰り返し実行する。そして、ステップS105において、全てのデータを読み込んだと判定された場合、ステップS106に進み、状態判定部44は、状態記述データを記述する。すなわち、状態判定部44は、図24および図25に示したように、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応と立ち下り点間の反応に分類して、それぞれ状態番号および反応継続時間を含む状態記述データ91を記述し、それを状態出力部48に出力する。   In step S105, the state determination unit 44 determines whether or not all data has been read. If it is determined that there is data that has not been read yet, the state determination unit 44 returns to step S104 and repeatedly executes the above-described processing. If it is determined in step S105 that all data has been read, the process proceeds to step S106, and the state determination unit 44 describes the state description data. That is, as shown in FIG. 24 and FIG. 25, the state determination unit 44 classifies the reactions of the photo sensors 22-1 to 22-3 into reactions between rising points and reactions between falling points. State description data 91 each including a state number and a reaction continuation time is described and output to state output unit 48.

ステップS107乃至S113の処理は、図11のステップS5乃至S11の処理と同様であるため、その説明は省略する。   The processing in steps S107 to S113 is the same as the processing in steps S5 to S11 in FIG.

次に、図27のフローチャートを参照して、図26のステップS104における状態判定処理の詳細について説明する。   Next, the details of the state determination process in step S104 of FIG. 26 will be described with reference to the flowchart of FIG.

ステップS121において、状態判定部44は、終了評価カウンタをクリアする。ステップS122において、状態判定部44は、前回反応したデータ(フォトセンサ値)を処理パラメータ保持部46から読み込み、ステップS123において、今回反応したデータをセンサ反応検知部42から読み込む。   In step S121, the state determination unit 44 clears the end evaluation counter. In step S122, the state determination unit 44 reads the previously reacted data (photosensor value) from the processing parameter holding unit 46, and in step S123, reads the currently reacted data from the sensor reaction detection unit 42.

ステップS124において、状態判定部44は、ステップS122で読み込んだ前回反応したデータと、ステップS123で読み込んだ今回反応したデータを比較し、フォトセンサ22の反応状態が変化したか否かを判定し、フォトセンサ22の反応状態が変化したと判定した場合、ステップS125に進む。   In step S124, the state determination unit 44 compares the previously reacted data read in step S122 with the currently reacted data read in step S123, and determines whether or not the reaction state of the photosensor 22 has changed. If it is determined that the reaction state of the photosensor 22 has changed, the process proceeds to step S125.

ステップS125において、状態判定部44は、フォトセンサ22の反応状態の変化は、立ち上がり点であるか否かを判定し、立ち上がり点であると判定した場合、ステップS126に進み、その状態HX(例えば、図22に示した立ち上がり点P21)を出力する。   In step S125, the state determination unit 44 determines whether or not the change in the reaction state of the photosensor 22 is a rising point. If the state determination unit 44 determines that the change is a rising point, the process proceeds to step S126, and the state HX (for example, , The rising point P21) shown in FIG. 22 is output.

ステップS125において、フォトセンサ22の反応状態の変化は、立ち上がり点ではなく、立ち下り点であると判定された場合、ステップS127に進み、状態判定部44は、その状態LX(例えば、図22に示した立ち下がり点P24)を出力する。   If it is determined in step S125 that the change in the reaction state of the photosensor 22 is not a rising point but a falling point, the process proceeds to step S127, and the state determination unit 44 determines that the state LX (for example, FIG. The indicated falling point P24) is output.

ステップS126の処理の後、またはステップS127の処理の後、ステップS128において、状態判定部44は、今回反応したデータ(フォトセンサ値)を処理パラメータ保持部46に保存させる。   After step S126 or after step S127, in step S128, state determination unit 44 causes process parameter holding unit 46 to store data (photosensor value) that has reacted this time.

ステップS124において、フォトセンサの反応が変化していないと判定された場合、ステップS129に進み、状態判定部44は、フォトセンサが無反応であるか否かを判定し、フォトセンサが無反応であると判定した場合、ステップS130に進み、終了評価カウンタを1だけインクリメントする。   If it is determined in step S124 that the photosensor response has not changed, the process proceeds to step S129, where the state determination unit 44 determines whether the photosensor is unresponsive, and the photosensor is unresponsive. If it is determined that there is, the process proceeds to step S130, and the end evaluation counter is incremented by one.

ステップS131において、状態判定部44は、終了評価カウンタが所定の閾値より大きいか否かを判定し、終了評価カウンタが所定の閾値より大きいと判定した場合、ステップS132に進み、“0”の状態番号を出力する。   In step S131, the state determination unit 44 determines whether or not the end evaluation counter is larger than a predetermined threshold value. If it is determined that the end evaluation counter is larger than the predetermined threshold value, the process proceeds to step S132, where the state is “0”. Print the number.

ステップS129において、センサが無反応ではないと判定された場合、ステップS130乃至S132の処理はスキップされ、またステップS131において、終了評価カウンタが所定の閾値より大きくないと判定された場合、ステップS132の処理はスキップされる。   If it is determined in step S129 that the sensor is not responding, the processes in steps S130 to S132 are skipped. If it is determined in step S131 that the end evaluation counter is not greater than the predetermined threshold, the process in step S132 is performed. Processing is skipped.

以上の処理により、状態HX(立ち上がり点)または状態LX(立ち下がり点)が出力され、その状態に基づいて、図26のステップS106において、状態番号を含む状態記述データ91が記述される。例えば、状態HXとして、立ち上がり点P21および立ち上がり点P22が出力された場合、図22の例では、“T0”の状態番号を含む状態記述データ91が記述される。また例えば、状態LXとして、立ち下がり点P24および立ち下がり点P25が出力された場合、図22の例では、“T2”の状態番号を含む状態記述データ91が記述される。   Through the above processing, the state HX (rising point) or the state LX (falling point) is output. Based on the state, the state description data 91 including the state number is described in step S106 of FIG. For example, when the rising point P21 and the rising point P22 are output as the state HX, the state description data 91 including the state number “T0” is described in the example of FIG. Further, for example, when the falling point P24 and the falling point P25 are output as the state LX, the state description data 91 including the state number “T2” is described in the example of FIG.

なお、図27のマルチセンサカメラ1の処理に対応して実行される処理ボックス2における処理は、基本的に、図15のフローチャートを参照して説明した処理と同様であり、またリモートコントローラ4における処理は、基本的に、図17を参照して説明した処理と同様であるため、それらの説明は省略する。   Note that the processing in the processing box 2 executed corresponding to the processing of the multi-sensor camera 1 in FIG. 27 is basically the same as the processing described with reference to the flowchart in FIG. Since the processing is basically the same as the processing described with reference to FIG. 17, the description thereof is omitted.

以上のように、フォトセンサ22−1乃至22−3の反応のうち、立ち上がり点間の反応および立ち下り点間の反応の両方に基づいて規定される状態番号およびその反応継続時間を含む状態記述データ91を記述し、これをイベント通知に用いるようにすることができる。   As described above, among the reactions of the photosensors 22-1 to 22-3, the state description including the state number defined based on both the reaction between the rising points and the reaction between the falling points and the reaction duration time thereof. Data 91 can be described and used for event notification.

次に、図7に示したイベント検知方法のアルゴリズム(以下、方式1と称する)と図22に示したイベント検知方法のアルゴリズム(以下、方式2と称する)を自動的に切り換える場合の例について説明する。ここでは、人物の行動の一例として、例えば、図28に示されるように、人物131−1が、フォトセンサ22−1乃至22−3の監視領域31−1乃至31−3において、図中矢印で示される方向(図中、フォトセンサ22−1乃至22−3から離れた位置で左から右方向)に行動し(動き1)、人物131−2が、フォトセンサ22−1乃至22−3の監視領域31−1乃至31−3において、図中矢印で示される方向(図中、フォトセンサ22−1乃至22−3に近い位置で左から右方向)に行動(動き2)した場合について考える。   Next, an example in which the algorithm of the event detection method shown in FIG. 7 (hereinafter referred to as method 1) and the event detection method algorithm shown in FIG. 22 (hereinafter referred to as method 2) are automatically switched will be described. To do. Here, as an example of a person's action, for example, as shown in FIG. 28, a person 131-1 moves in the monitoring areas 31-1 to 31-3 of the photosensors 22-1 to 22-3, and an arrow in the figure. (In the figure, from the left to the right at a position away from the photosensors 22-1 to 22-3) (movement 1), the person 131-2 moves to the photosensors 22-1 to 22-3. In the monitoring areas 31-1 to 31-3, the action (movement 2) in the direction indicated by the arrow in the figure (in the figure, from the left to the right at positions close to the photosensors 22-1 to 22-3) Think.

図29に示されるように、方式1では、人物131−1が図中矢印で示される方向に行動した場合(動き1の場合)、“4”、“6”、“7”、“3”、“1”の状態番号の順に状態記述データ91が記述され、人物131−2が図中矢印で示される方向に行動した場合(動き2の場合)、“4”、“0”、“2”、“0”、“1”の状態番号の順に状態記述データ91が記述される。   As shown in FIG. 29, in method 1, when person 131-1 acts in the direction indicated by the arrow in the figure (in the case of movement 1), “4”, “6”, “7”, “3” When the state description data 91 is described in the order of the state number “1” and the person 131-2 acts in the direction indicated by the arrow in the drawing (in the case of movement 2), “4”, “0”, “2” State description data 91 is described in the order of the state numbers of "", "0", and "1".

これに対し、方式2では、人物131−1が図中矢印で示される方向に行動した場合、“T0”、“T1”の状態番号の順に状態記述データ91が記述され、人物131−2が図中矢印で示される方向に行動した場合、“T0”、“T1”の状態番号の順に状態記述データ91が記述される。   On the other hand, in the method 2, when the person 131-1 moves in the direction indicated by the arrow in the figure, the state description data 91 is described in the order of the state numbers "T0" and "T1", and the person 131-2 When acting in the direction indicated by the arrow in the figure, state description data 91 is described in the order of the state numbers “T0” and “T1”.

そして、これら状態記述データ91の出力とともにCCDカメラ21から送信された通知画像データが、処理ボックス2の呈示画像構築部62を介して呈示部3に呈示される。ユーザは、呈示部3に呈示されたイベント画像に対して判断を行い、リモートコントローラ4の入力部73を用いてユーザフィードバックを入力する。   The notification image data transmitted from the CCD camera 21 together with the output of the state description data 91 is presented to the presentation unit 3 via the presentation image construction unit 62 of the processing box 2. The user makes a determination on the event image presented on the presentation unit 3 and inputs user feedback using the input unit 73 of the remote controller 4.

例えば、図30に示されるように、人物131−1の行動(動き1)と人物131−2の行動(動き2)に対するユーザフィードバックは、4パターンとなる。すなわち、ユーザ評価1では、人物131−1の行動および人物131−2の行動に対して、いずれも「OK」を示す(図中、「○」の記号で示される)ユーザフィードバック(今後もイベントとして通知して欲しい)が入力される。ユーザ評価2では、人物131−1の行動に対して、「OK」を示すユーザフィードバックが入力され、人物131−2の行動に対して、「NG」を示す(図中、「×」の記号で示される)ユーザフィードバック(今後はイベントとして通知しなくてもよい)が入力される。ユーザ評価3では、人物131−1の行動に対して、「NG」を示すユーザフィードバックが入力され、人物131−2の行動に対して、「OK」を示すユーザフィードバックが入力される。ユーザ評価4では、人物131−1の行動および人物131−2の行動に対して、いずれも「NG」を示すユーザフィードバックが入力される。   For example, as shown in FIG. 30, there are four patterns of user feedback for the action (movement 1) of the person 131-1 and the action (movement 2) of the person 131-2. That is, in the user evaluation 1, both the action of the person 131-1 and the action of the person 131-2 indicate “OK” (indicated by a symbol “◯” in the figure). I want to be notified as). In the user evaluation 2, user feedback indicating “OK” is input to the action of the person 131-1, and “NG” is indicated to the action of the person 131-2 (the symbol “x” in the figure). User feedback (indicated as an event in the future) is input. In the user evaluation 3, user feedback indicating “NG” is input to the action of the person 131-1 and user feedback indicating “OK” is input to the action of the person 131-2. In user evaluation 4, user feedback indicating “NG” is input to both the action of the person 131-1 and the action of the person 131-2.

そして、人物131−1の行動(動き1)と人物131−2の行動(動き2)に対するフィードバック(ユーザ評価)が同じ場合には、方式2が用いられ、異なる場合には、方式1が用いられる。このようにして、過去の動きに応じて記述された状態記述データ91とユーザフィードバックに基づいて、自動的に適切なアルゴリズムを切り換えることができる。   When the action (movement 1) of the person 131-1 and the feedback (user evaluation) with respect to the action (movement 2) of the person 131-2 are the same, the method 2 is used, and when the feedback is different, the method 1 is used. It is done. In this manner, an appropriate algorithm can be automatically switched based on the state description data 91 described according to past movements and user feedback.

以上のように、ユーザからのフィードバックに基づいて、イベント通知の判定に用いる通知判定テーブルを変化(更新)させるようにしたので、ユーザが意図するイベントのみを簡単な構成でかつ確実に検出することができ、かつ、イベントを通知する場合にのみ、CCDカメラ21の電源をオンするようにしたので、無駄なバッテリ消費を抑えることができる。   As described above, since the notification determination table used for determining event notification is changed (updated) based on feedback from the user, only events intended by the user can be detected with a simple configuration and with certainty. Since the power of the CCD camera 21 is turned on only when an event is notified, wasteful battery consumption can be suppressed.

また、フォトセンサ22−1乃至22−3を利用する場合の例について説明したが、これに限らず、例えば、赤外線センサ、マイクロ波センサ、あるいは、他のセンサを利用することも勿論可能である。   Moreover, although the example in the case of using the photosensors 22-1 to 22-3 has been described, the present invention is not limited thereto, and for example, it is possible to use an infrared sensor, a microwave sensor, or other sensors. .

さらに以上においては、マルチセンサカメラ1や呈示部3は、1台ではなく、複数台設けるようにしたり、処理ボックス2は、呈示部3と別の筐体とせず、一体型とするようにしたり、リモートコントローラ4に呈示部72を設けずに、呈示部3のみの呈示とするようにしたり、あるいは、処理ボックス2にユーザフィードバックを入力するための入力部を設けるようにすることができる。   Furthermore, in the above, the multi-sensor camera 1 and the presenting unit 3 are not provided as a single unit, but a plurality of units may be provided, or the processing box 2 may not be provided as a separate casing from the presenting unit 3 and may be integrated. Instead of providing the presenting unit 72 in the remote controller 4, only the presenting unit 3 can be presented, or an input unit for inputting user feedback to the processing box 2 can be provided.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.

図31は、汎用のパーソナルコンピュータ200の内部の構成例を示す図である。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記憶されているプログラム、または記憶部208からRAM(Random Access Memory)203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。   FIG. 31 is a diagram illustrating an internal configuration example of a general-purpose personal computer 200. A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a program loaded from a storage unit 208 to a RAM (Random Access Memory) 203. The RAM 203 also appropriately stores data necessary for the CPU 201 to execute various processes.

CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インターフェース205も接続されている。   The CPU 201, the ROM 202, and the RAM 203 are connected to each other via the bus 204. An input / output interface 205 is also connected to the bus 204.

入出力インターフェース205には、ボタン、スイッチ、キーボードあるいはマウスなどで構成される入力部206、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などのディスプレイ、並びにスピーカなどで構成される出力部207、ハードディスクなどで構成される記憶部208、およびモデムやターミナルアダプタなどで構成される通信部209が接続されている。通信部209は、インターネットを含むネットワークを介して通信処理を行う。   The input / output interface 205 includes an input unit 206 configured with buttons, switches, a keyboard, or a mouse, an output unit 207 configured with a display such as a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display), and a speaker. Further, a storage unit 208 configured with a hard disk or the like and a communication unit 209 configured with a modem or a terminal adapter are connected. The communication unit 209 performs communication processing via a network including the Internet.

入出力インターフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどよりなるリムーバブルメディア211が適宜装着され、そこから読み出されたコンピュータプログラムが、記憶部208にインストールされる。   A drive 210 is also connected to the input / output interface 205 as necessary, and a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read therefrom is read. Are installed in the storage unit 208.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録する記録媒体は、図31に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア211により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM203または記憶部208に含まれるハードディスクなどで構成される。   As shown in FIG. 31, a recording medium that records a program that is installed in a computer and can be executed by the computer is distributed to provide a program to a user separately from the apparatus main body. Recording magnetic disk (including flexible disk), optical disk (including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disk (MD (Mini-Disc) (registered trademark) ), Or included in the ROM 203 or the storage unit 208 in which a program is provided, which is provided to the user in a state of being incorporated in advance in the apparatus main body. Hard disk.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表わすものである。   Further, in this specification, the system represents the entire apparatus composed of a plurality of apparatuses.

本発明を適用した監視システムの構成例を示す図である。It is a figure which shows the structural example of the monitoring system to which this invention is applied. マルチセンサカメラの外観の構成例を示す図である。It is a figure which shows the structural example of the external appearance of a multi sensor camera. フォトセンサの監視領域を示す図である。It is a figure which shows the monitoring area | region of a photosensor. 図1の監視システムの機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the monitoring system of FIG. フォトセンサが出力する検知信号の出力レベルの変化と人物の行動との関係を示す図である。It is a figure which shows the relationship between the change of the output level of the detection signal which a photosensor outputs, and a human action. フォトセンサのセンサ反応の開始と終了を説明する図である。It is a figure explaining the start and completion | finish of a sensor reaction of a photo sensor. フォトセンサの反応に基づいて、状態番号を規定する例を示す図である。It is a figure which shows the example which prescribes | regulates a state number based on reaction of a photosensor. 人物の行動に応じて記述される状態記述データの例を示す図である。It is a figure which shows the example of the state description data described according to a person's action. 図4の通知判定テーブル更新部の詳細な構成例を示すブロック図である。FIG. 5 is a block diagram illustrating a detailed configuration example of a notification determination table update unit in FIG. 4. 通知判定テーブルの例を示す図である。It is a figure which shows the example of a notification determination table. マルチセンサカメラにおける処理を説明するフローチャートである。It is a flowchart explaining the process in a multi sensor camera. 図11のステップS5の処理を説明する図である。It is a figure explaining the process of step S5 of FIG. 図11のステップS1におけるフォトセンサ反応処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the photosensor reaction process in step S1 of FIG. 図13のステップS22における定常状態検出処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the steady state detection process in step S22 of FIG. 処理ボックスにおける処理を説明するフローチャートである。It is a flowchart explaining the process in a process box. 図15のステップS63における通知判定テーブル更新処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the notification determination table update process in FIG.15 S63. リモートコントローラにおける処理を説明するフローチャートである。It is a flowchart explaining the process in a remote controller. フォトセンサの反応のうち、立ち上がり点間の反応に基づいて、状態番号を規定する例を説明する図である。It is a figure explaining the example which prescribes | regulates a state number based on the reaction between rising points among the reactions of a photosensor. フォトセンサの反応のうち、立ち上がり点間の反応に基づいて、状態番号を規定する他の例を説明する図である。It is a figure explaining the other example which prescribes | regulates a state number based on the reaction between rising points among the reactions of a photosensor. 図18に示した人物の行動に応じて記述される状態記述データの例を示す図である。It is a figure which shows the example of the state description data described according to the person's action shown in FIG. 図19に示した人物の行動に応じて記述される状態記述データの例を示す図である。It is a figure which shows the example of the state description data described according to the action of the person shown in FIG. フォトセンサの反応のうち、立ち上がり点間の反応および立ち下がり点間の反応の両方に基づいて、状態番号を規定する例を説明する図である。It is a figure explaining the example which prescribes | regulates a state number based on both the reaction between rising points among the reaction of a photosensor, and the reaction between falling points. 図22に示した人物の行動に応じて記述される状態記述データの例を示す図である。It is a figure which shows the example of the state description data described according to the person's action shown in FIG. 図23に示した状態記述データにおいて、フォトセンサの立ち上がり点間の反応に基づいて記述された状態記述データを抽出した場合の例を示す図である。It is a figure which shows the example at the time of extracting the state description data described based on the reaction between the rising points of a photosensor in the state description data shown in FIG. 図23に示した状態記述データにおいて、フォトセンサの立ち下がり点間の反応に基づいて記述された状態記述データを抽出した場合の例を示す図である。It is a figure which shows the example at the time of extracting the state description data described based on the reaction between the falling points of a photosensor in the state description data shown in FIG. マルチセンサカメラにおける他の処理を説明するフローチャートである。It is a flowchart explaining the other process in a multi sensor camera. 図26のステップS104における状態判定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the state determination process in step S104 of FIG. 監視領域内における人物の行動を模式的に示している。A person's action in a surveillance field is typically shown. 図28に示した人物の行動に応じて記述される状態記述データを説明する図である。It is a figure explaining the state description data described according to the action of the person shown in FIG. 図28に示した人物の行動に対するユーザフィードバックを説明する図である。It is a figure explaining the user feedback with respect to the action of the person shown in FIG. 汎用のパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a general purpose personal computer.

符号の説明Explanation of symbols

1 マルチセンサカメラ, 2 処理ボックス, 3 呈示部, 4 リモートコントローラ, 10 監視システム, 22−1乃至22−3 フォトセンサ, 42 センサ反応検知部, 44 状態判定部, 62 呈示画像構築部, 63 状態記述データ蓄積部, 64 通知判定テーブル更新部, 72 呈示部, 73 入力部, 101 ユーザフィードバック判定部, 102 状態記述パターン比較部, 103 新規パターン作成部, 104 既存パターン更新部, 105 仮通知判定テーブル蓄積部, 106 テーブル比較部, 107 過去通知判定テーブル蓄積部
DESCRIPTION OF SYMBOLS 1 Multi-sensor camera, 2 Processing box, 3 Presentation part, 4 Remote controller, 10 Surveillance system, 22-1 thru | or 22-3 Photo sensor, 42 Sensor reaction detection part, 44 State determination part, 62 Presentation image construction part, 63 State Description data storage unit, 64 Notification determination table update unit, 72 Presentation unit, 73 Input unit, 101 User feedback determination unit, 102 State description pattern comparison unit, 103 New pattern creation unit, 104 Existing pattern update unit, 105 Temporary notification determination table Storage unit, 106 table comparison unit, 107 past notification determination table storage unit

Claims (13)

所定方向に並べられた複数のセンサからセンサデータを取得する取得手段と、
前記複数のセンサにより監視される領域の通知画像を撮影する撮影手段と、
前記取得手段により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出手段と、
前記検出手段により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述手段と、
前記状態データ記述手段により記述された前記状態データと判定テーブルを比較し、イベントを通知するか否かを判定する判定手段と、
前記イベントを通知すると判定された場合、前記撮影手段の電源をオンさせ、前記通知画像を撮影させる撮影制御手段と、
前記判定手段により前記イベントを通知すると判定された場合、前記イベントを通知するための前記通知画像を含む呈示データを構築する構築手段と、
前記構築手段により構築された前記呈示データに基づく呈示を行う呈示手段と
を備えることを特徴とする監視システム。
Obtaining means for obtaining sensor data from a plurality of sensors arranged in a predetermined direction ;
Photographing means for photographing a notification image of an area monitored by the plurality of sensors;
Detection of detecting the state of the sensor by comparing the sensor data acquired by the acquisition unit with data at a steady state and detecting a point at which the sensor starts to react or a point at which the reaction of the sensor ends. Means,
The point detected by the detecting means, the point at which the sensor started to react, the state number defined based on the point at which the next sensor adjacent to the sensor started to react, or the point at which the reaction of the sensor ended State data description means for describing state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has ended ,
A determination unit that compares the state data described by the state data description unit with a determination table and determines whether to notify an event;
When it is determined to notify the event, a shooting control unit that turns on the imaging unit and captures the notification image;
If it is determined by the determination means that the event is notified, a construction means for constructing presentation data including the notification image for notifying the event;
And a presenting means for presenting based on the presenting data constructed by the constructing means.
前記呈示手段による呈示に基づいて、ユーザからの判断の入力を取得する入力取得手段と、
前記入力取得手段により取得された前記ユーザからの判断の入力、および、前記状態データ記述手段により記述された前記状態データに基づいて、前記判定テーブルを作成する作成手段と
をさらに備えることを特徴とする請求項1に記載の監視システム。
Based on the presentation by the presenting means, an input obtaining means for obtaining a judgment input from the user;
And a creation means for creating the determination table based on the input of the judgment obtained by the user obtained by the input obtaining means and the state data described by the state data description means. The monitoring system according to claim 1.
前記複数のセンサは、フォトセンサである
ことを特徴とする請求項1に記載の監視システム。
The monitoring system according to claim 1, wherein the plurality of sensors are photosensors.
所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、
前記取得ステップの処理により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出ステップと、
前記検出ステップの処理により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述ステップと、
前記状態データ記述ステップの処理により記述された前記状態データと判定テーブルを比較し、イベントを通知するか否かを判定する判定ステップと、
前記イベントを通知すると判定された場合、撮影手段の電源をオンさせ、前記複数のセンサにより監視される領域の通知画像を前記撮影手段に撮影させる撮影制御ステップと、
前記判定ステップの処理により前記イベントを通知すると判定された場合、前記イベントを通知するための前記通知画像を含む呈示データを構築する構築ステップと、
前記構築ステップの処理により構築された前記呈示データに基づく呈示を行う呈示ステップと
を含むことを特徴とする監視方法。
An acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction ;
The sensor data obtained by the processing of the obtaining step is compared with the data at normal time, and the state of the sensor is detected by detecting the point at which the sensor has started to react or the point at which the sensor has reacted. Detecting step to
The state number defined based on the point at which the sensor has started to react and the point at which the next sensor adjacent to the sensor has started to react detected by the processing of the detecting step , or the reaction of the sensor has ended. A state data description step that describes state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has been completed ,
A determination step for comparing the state data described by the processing of the state data description step with a determination table and determining whether to notify an event;
When it is determined to notify the event, a photographing control step of turning on the photographing unit and causing the photographing unit to photograph a notification image of an area monitored by the plurality of sensors;
When it is determined to notify the event by the process of the determination step, a construction step of constructing presentation data including the notification image for notifying the event;
A presenting step for presenting based on the presenting data constructed by the processing of the constructing step.
所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、
前記取得ステップの処理により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出ステップと、
前記検出ステップの処理により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述ステップと、
前記状態データ記述ステップの処理により記述された前記状態データと判定テーブルを比較し、イベントを通知するか否かを判定する判定ステップと、
前記イベントを通知すると判定された場合、撮影手段の電源をオンさせ、前記複数のセンサにより監視される領域の通知画像を前記撮影手段に撮影させる撮影制御ステップと、
前記判定ステップの処理により前記イベントを通知すると判定された場合、前記イベントを通知するための前記通知画像を含む呈示データを構築する構築ステップと、
前記構築ステップの処理により構築された前記呈示データに基づく呈示を行う呈示ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
An acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction ;
The sensor data obtained by the processing of the obtaining step is compared with the data at normal time, and the state of the sensor is detected by detecting the point at which the sensor has started to react or the point at which the sensor has reacted. Detecting step to
The state number defined based on the point at which the sensor has started to react and the point at which the next sensor adjacent to the sensor has started to react detected by the processing of the detecting step , or the reaction of the sensor has ended. A state data description step that describes state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has been completed ,
A determination step for comparing the state data described by the processing of the state data description step with a determination table and determining whether to notify an event;
When it is determined to notify the event, a photographing control step of turning on the photographing unit and causing the photographing unit to photograph a notification image of an area monitored by the plurality of sensors;
When it is determined to notify the event by the process of the determination step, a construction step of constructing presentation data including the notification image for notifying the event;
And a presenting step for presenting based on the presenting data constructed by the processing of the constructing step. A recording medium on which a computer-readable program is recorded.
所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、
前記取得ステップの処理により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出ステップと、
前記検出ステップの処理により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述ステップと、
前記状態データ記述ステップの処理により記述された前記状態データと判定テーブルを比較し、イベントを通知するか否かを判定する判定ステップと、
前記イベントを通知すると判定された場合、撮影手段の電源をオンさせ、前記複数のセンサにより監視される領域の通知画像を前記撮影手段に撮影させる撮影制御ステップと、
前記判定ステップの処理により前記イベントを通知すると判定された場合、前記イベントを通知するための前記通知画像を含む呈示データを構築する構築ステップと、
前記構築ステップの処理により構築された前記呈示データに基づく呈示を行う呈示ステップと
をコンピュータに実行させることを特徴とするプログラム。
An acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction ;
The sensor data obtained by the processing of the obtaining step is compared with the data at normal time, and the state of the sensor is detected by detecting the point at which the sensor has started to react or the point at which the sensor has reacted. Detecting step to
The state number defined based on the point at which the sensor has started to react and the point at which the next sensor adjacent to the sensor has started to react detected by the processing of the detecting step , or the reaction of the sensor has ended. A state data description step that describes state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has been completed ,
A determination step for comparing the state data described by the processing of the state data description step with a determination table and determining whether to notify an event;
When it is determined to notify the event, a photographing control step of turning on the photographing unit and causing the photographing unit to photograph a notification image of an area monitored by the plurality of sensors;
When it is determined to notify the event by the process of the determination step, a construction step of constructing presentation data including the notification image for notifying the event;
A program that causes a computer to execute a presentation step of presenting based on the presentation data constructed by the processing of the construction step.
所定方向に並べられた複数のセンサからセンサデータを取得する取得手段と、
前記複数のセンサにより監視される領域の通知画像を撮影する撮影手段と、
前記取得手段により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出手段と、
前記検出手段により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述手段と、
前記状態データ記述手段により記述された前記状態データと判定テーブルを比較し、イベントを通知する否かを判定する判定手段と、
前記イベントを通知すると判定された場合、前記撮影手段の電源をオンさせ、前記通知画像を撮影させる撮影制御手段と、
前記判定手段により前記イベントを通知すると判定された場合、前記イベントと、前記イベントを通知するための前記通知画像とを他の装置に送信する送信手段と
を備えることを特徴とする情報処理装置。
Obtaining means for obtaining sensor data from a plurality of sensors arranged in a predetermined direction ;
Photographing means for photographing a notification image of an area monitored by the plurality of sensors;
Detection of detecting the state of the sensor by comparing the sensor data acquired by the acquisition unit with data at a steady state and detecting a point at which the sensor starts to react or a point at which the reaction of the sensor ends. Means,
The point detected by the detecting means, the point at which the sensor started to react, the state number defined based on the point at which the next sensor adjacent to the sensor started to react, or the point at which the reaction of the sensor ended State data description means for describing state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has ended ,
A determination unit that compares the state data described by the state data description unit with a determination table and determines whether to notify an event;
When it is determined to notify the event, a shooting control unit that turns on the imaging unit and captures the notification image;
An information processing apparatus comprising: a transmission unit configured to transmit the event and the notification image for notifying the event to another device when the determination unit determines to notify the event.
前記他の装置から供給された前記判定テーブルを取得し、保持する判定テーブル保持手段をさらに備える
ことを特徴とする請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7 , further comprising a determination table holding unit that acquires and holds the determination table supplied from the other apparatus.
前記送信手段は、前記状態データ記述手段により記述された前記状態データを前記他の装置に送信する
ことを特徴とする請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7 , wherein the transmission unit transmits the state data described by the state data description unit to the other device.
前記複数のセンサは、フォトセンサである
ことを特徴とする請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7 , wherein the plurality of sensors are photosensors.
所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、
前記取得ステップの処理により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出ステップと、
前記検出ステップの処理により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述ステップと、
前記状態データ記述ステップの処理により記述された前記状態データと判定テーブルを比較し、イベントを通知する否かを判定する判定ステップと、
前記イベントを通知すると判定された場合、撮影手段の電源をオンさせ、前記複数のセンサにより監視される領域の通知画像を前記撮影手段に撮影させる撮影制御ステップと、
前記判定ステップの処理により前記イベントを通知すると判定された場合、前記イベントと、前記イベントを通知するための前記通知画像とを他の装置に送信する送信ステップと
を含むことを特徴とする情報処理方法。
An acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction ;
The sensor data obtained by the processing of the obtaining step is compared with the data at normal time, and the state of the sensor is detected by detecting the point at which the sensor has started to react or the point at which the sensor has reacted. Detecting step to
The state number defined based on the point at which the sensor has started to react and the point at which the next sensor adjacent to the sensor has started to react detected by the processing of the detecting step , or the reaction of the sensor has ended. A state data description step that describes state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has been completed ,
A determination step of comparing the state data described by the processing of the state data description step with a determination table and determining whether to notify an event;
When it is determined to notify the event, a photographing control step of turning on the photographing unit and causing the photographing unit to photograph a notification image of an area monitored by the plurality of sensors;
An information processing method including: a transmission step of transmitting the event and the notification image for notifying the event to another device when it is determined to notify the event by the process of the determination step; Method.
所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、
前記取得ステップの処理により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出ステップと、
前記検出ステップの処理により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述ステップと、
前記状態データ記述ステップの処理により記述された前記状態データと判定テーブルを比較し、イベントを通知する否かを判定する判定ステップと、
前記イベントを通知すると判定された場合、撮影手段の電源をオンさせ、前記複数のセンサにより監視される領域の通知画像を前記撮影手段に撮影させる撮影制御ステップと、
前記判定ステップの処理により前記イベントを通知すると判定された場合、前記イベントと、前記イベントを通知するための前記通知画像とを他の装置に送信する送信ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
An acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction ;
The sensor data obtained by the processing of the obtaining step is compared with the data at normal time, and the state of the sensor is detected by detecting the point at which the sensor has started to react or the point at which the sensor has reacted. Detecting step to
The state number defined based on the point at which the sensor has started to react and the point at which the next sensor adjacent to the sensor has started to react detected by the processing of the detecting step , or the reaction of the sensor has ended. A state data description step that describes state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has been completed ,
A determination step of comparing the state data described by the processing of the state data description step with a determination table and determining whether to notify an event;
When it is determined to notify the event, a photographing control step of turning on the photographing unit and causing the photographing unit to photograph a notification image of an area monitored by the plurality of sensors;
A computer comprising: a transmission step of transmitting the event and the notification image for notifying the event to another device when it is determined to notify the event by the process of the determination step. A recording medium on which a readable program is recorded.
所定方向に並べられた複数のセンサからセンサデータを取得する取得ステップと、
前記取得ステップの処理により取得された前記センサデータと定常時のデータを比較し、前記センサが反応を開始した点、または前記センサの反応が終了した点を検出することで前記センサの状態を検出する検出ステップと、
前記検出ステップの処理により検出された、前記センサが反応を開始した点と、前記センサに隣接する次のセンサが反応を開始した点に基づいて規定される状態番号、または前記センサの反応が終了した点と前記センサに隣接する次のセンサの反応が終了した点に基づいて規定される状態番号が含まれる、前記センサの状態に関する状態データを記述する状態データ記述ステップと、
前記状態データ記述ステップの処理により記述された前記状態データと判定テーブルを比較し、イベントを通知する否かを判定する判定ステップと、
前記イベントを通知すると判定された場合、撮影手段の電源をオンさせ、前記複数のセンサにより監視される領域の通知画像を前記撮影手段に撮影させる撮影制御ステップと、
前記判定ステップの処理により前記イベントを通知すると判定された場合、前記イベントと、前記イベントを通知するための前記通知画像とを他の装置に送信する送信ステップと
をコンピュータに実行させることを特徴とするプログラム。
An acquisition step of acquiring sensor data from a plurality of sensors arranged in a predetermined direction ;
The sensor data obtained by the processing of the obtaining step is compared with the data at normal time, and the state of the sensor is detected by detecting the point at which the sensor has started to react or the point at which the sensor has reacted. Detecting step to
The state number defined based on the point at which the sensor has started to react and the point at which the next sensor adjacent to the sensor has started to react detected by the processing of the detecting step , or the reaction of the sensor has ended. A state data description step that describes state data relating to the state of the sensor, including a state number defined based on the point at which the reaction of the next sensor adjacent to the sensor has been completed ,
A determination step of comparing the state data described by the processing of the state data description step with a determination table and determining whether to notify an event;
When it is determined to notify the event, a photographing control step of turning on the photographing unit and causing the photographing unit to photograph a notification image of an area monitored by the plurality of sensors;
When it is determined that the event is notified by the processing of the determination step, the computer and the transmission step of transmitting the event and the notification image for notifying the event to another device are executed. Program to do.
JP2003278918A 2003-07-24 2003-07-24 Monitoring system and method, information processing apparatus and method, recording medium, and program Expired - Fee Related JP4438344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003278918A JP4438344B2 (en) 2003-07-24 2003-07-24 Monitoring system and method, information processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003278918A JP4438344B2 (en) 2003-07-24 2003-07-24 Monitoring system and method, information processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2005044209A JP2005044209A (en) 2005-02-17
JP4438344B2 true JP4438344B2 (en) 2010-03-24

Family

ID=34265184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003278918A Expired - Fee Related JP4438344B2 (en) 2003-07-24 2003-07-24 Monitoring system and method, information processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4438344B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015953B1 (en) * 2014-11-28 2019-10-21 한화테크윈 주식회사 Low-powered imaging processing device and method thereof

Also Published As

Publication number Publication date
JP2005044209A (en) 2005-02-17

Similar Documents

Publication Publication Date Title
JP4890880B2 (en) Image transmitting apparatus, image transmitting method, program, and storage medium
US7944471B2 (en) Object detecting apparatus and method, program and recording medium used therewith, monitoring system and method, information processing apparatus and method, and recording medium and program used therewith
JP5849457B2 (en) Wireless operation terminal and information processing apparatus
US20030070177A1 (en) Computer program product for TV telephone system
US20060064732A1 (en) Adapter apparatus and network camera control method
JP2005065149A (en) Monitoring system, information processing apparatus and method, recording medium, program
CN110035420A (en) Communication system and device, image capture apparatus, control method and storage medium
JP2005092740A (en) Monitoring system, information processor and method for the same, recording medium, and program
JP6737047B2 (en) Imaging device, shooting mode control method, and program
JP4438344B2 (en) Monitoring system and method, information processing apparatus and method, recording medium, and program
JP2014110540A (en) Operation system for video apparatus and video apparatus
JP4438341B2 (en) Monitoring system and method, information processing apparatus and method, recording medium, and program
JP6950681B2 (en) Watching system
JP4406821B2 (en) Monitoring system and method, information processing apparatus, recording medium, and program
JP2010171632A (en) Monitor camera device
JP3820586B2 (en) Information processing system and method, recording medium, and program
JP2010026964A (en) Information processor, information processing system, information processing method, and program
JP4457632B2 (en) Monitoring device and method, recording medium, and program
JP4605429B2 (en) Monitoring system, information processing apparatus and method, recording medium, and program
KR100651292B1 (en) Tv having a camera and method and ststem for providing image information thereof
JP4403418B2 (en) Information processing system and method, recording medium, and program
JP2009055478A (en) Monitoring device, method, and system
JP4492582B2 (en) Information processing apparatus and monitoring processing system
JP3864420B2 (en) Television receiver
JP3965580B2 (en) Monitoring system and method, information processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees