JP4403418B2 - Information processing system and method, recording medium, and program - Google Patents

Information processing system and method, recording medium, and program Download PDF

Info

Publication number
JP4403418B2
JP4403418B2 JP2006121572A JP2006121572A JP4403418B2 JP 4403418 B2 JP4403418 B2 JP 4403418B2 JP 2006121572 A JP2006121572 A JP 2006121572A JP 2006121572 A JP2006121572 A JP 2006121572A JP 4403418 B2 JP4403418 B2 JP 4403418B2
Authority
JP
Japan
Prior art keywords
event
presentation
data
sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006121572A
Other languages
Japanese (ja)
Other versions
JP2006203953A (en
Inventor
哲二郎 近藤
小林  直樹
泰弘 藤森
康昭 高橋
浩二 太田
直己 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006121572A priority Critical patent/JP4403418B2/en
Publication of JP2006203953A publication Critical patent/JP2006203953A/en
Application granted granted Critical
Publication of JP4403418B2 publication Critical patent/JP4403418B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理システムおよび方法、記録媒体、並びにプログラムに関し、特に、柔軟にイベントを検知および通知し、消費電力を抑えることができるようにした情報処理システムおよび方法、記録媒体、並びにプログラムに関する。   The present invention relates to an information processing system and method, a recording medium, and a program, and more particularly, to an information processing system and method, a recording medium, and a program that can flexibly detect and notify an event and suppress power consumption. .

従来、ホームセキュリティシステムとして、撮像装置から送信される監視画像を表示するモニタTV(Television)を見ることにより、センサ情報を知る手法が提案されている(例えば、特許文献1参照)。   Conventionally, as a home security system, a method of knowing sensor information by viewing a monitor TV (Television) that displays a monitoring image transmitted from an imaging device has been proposed (see, for example, Patent Document 1).

また、赤外線センサと画像センサが組み合わされた監視装置が、人体の有無および画策の有無を判定することにより、監視領域内に進入した人体を検出する手法が提案されている(例えば、特許文献2参照)。   In addition, a method has been proposed in which a monitoring device in which an infrared sensor and an image sensor are combined detects a human body that has entered a monitoring area by determining the presence or absence of a human body and the presence or absence of a plan (for example, Patent Document 2). reference).

これらの特許文献1および特許文献2に記載の発明においては、主に、特定の場所または特定の異常(イベント)が検出される。
特開平8−124078号公報 特開2000−339554号公報
In the inventions described in Patent Document 1 and Patent Document 2, a specific place or a specific abnormality (event) is mainly detected.
Japanese Patent Laid-Open No. 8-124078 JP 2000-339554 A

しかしながら、これらの特許文献1および特許文献2に記載されている発明では、設置の際の調整が煩わしく、さらに、一度設置すると、別の場所にセンサ(撮像装置または監視装置)を移動することが困難であるという課題があった。   However, in the inventions described in Patent Literature 1 and Patent Literature 2, adjustment at the time of installation is troublesome, and once installed, the sensor (imaging device or monitoring device) may be moved to another location. There was a problem that it was difficult.

また、従来使用されている無線カメラは、バッテリ駆動により、常時、画像および音声等を送信し続ける為、バッテリが短時間しか持たないという課題があった。   In addition, the wireless cameras used in the past have a problem that the battery has only a short time because it continuously transmits images and sounds by battery driving.

本発明はこのような状況に鑑みてなされたものであり、柔軟にイベントを検出および通知し、消費電力を抑えることができるようにするものである。   The present invention has been made in view of such a situation, and is intended to flexibly detect and notify an event and suppress power consumption.

本発明の一側面の情報処理システムは、センサデータに基づく監視処理を実行する情報処理システムにおいて、監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサ手段と、前記センサ手段により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算手段と、前記特徴量計算手段により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定手段と、前記イベント判定手段により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成手段と、前記呈示データ作成手段により作成された前記呈示データに基づく呈示を行なう呈示手段と、前記呈示手段により呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得手段と、前記入力取得手段により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御手段とを備えることを特徴とする。 According to an information processing system of one aspect of the present invention, in an information processing system that performs monitoring processing based on sensor data, a sensor unit that acquires sensor data output by a sensor that detects a state of a region to be monitored, and the sensor unit and feature quantity calculating means for calculating a feature quantity obtained by a predetermined calculation with respect to the acquired sensor data, by comparing the characteristic amount calculated by the feature quantity calculating means and the determination parameter, the event Event determining means for determining whether or not an event has occurred, and presentation data creating means for creating presentation data including event data for notifying the event when the event determining means determines that the event has occurred And presenting based on the presentation data created by the presentation data creation means. And presentation means, an input acquisition means for acquiring a user input of the determination whether the future to present a more presented by said event to said presentation means, the judgment of the user acquired by the input obtaining unit Control means for controlling the change in the calculation of the feature amount or the update of the determination parameter so that the occurrence of the event is easily detected or the occurrence of the event is difficult to be detected based on the input. It is characterized by that.

前記センサには、カメラを含み、前記イベント判定手段には、前記カメラにより撮影された画像を複数の領域に分割した領域単位で、前記特徴量を判定パラメータと比較することにより人を検出させ、所定の領域に人が検出された場合、前記イベントが発生したと判定させ、前記制御手段には、前記ユーザの判断の入力が前記イベントを今後呈示しなくてよいことを示している場合、それ以降前記所定の領域で人が撮影されても前記イベントが発生したと判定しないように前記特徴量の計算の変更を制御させることができる The sensor includes a camera, and the event determination unit is configured to detect a person by comparing the feature amount with a determination parameter in a region unit obtained by dividing an image captured by the camera into a plurality of regions. When a person is detected in a predetermined area, it is determined that the event has occurred, and when the control means indicates that the user does not have to present the event in the future, Thereafter, even if a person is photographed in the predetermined area, the change in the calculation of the feature amount can be controlled so as not to determine that the event has occurred .

前記制御手段には、前記ユーザの判断の入力が前記イベントを今後呈示しなくてよいことを示している場合、前記特徴量の計算を中止させることができる。 When the input of the user's judgment indicates that the event does not have to be presented in the future , the control unit can stop the calculation of the feature amount .

前記センサデータは、画像のデータであって、前記特徴量抽出手段には、前記画像のフレーム間差分、前記特徴量として計算させることができる。 The sensor data is image data, and the feature amount extraction unit can calculate an inter-frame difference of the image as the feature amount.

前記呈示データ作成手段には、前記イベントを今後も呈示するか否かについてのユーザの判断の入力を受け付けるリモートコントローラに前記イベントを通知するための前記イベントデータで構成されるリモコン呈示データをさらに作成させることができる。 The presenting data creating means further creates remote control presenting data composed of the event data for notifying the event to a remote controller that accepts an input of a user judgment as to whether or not to present the event in the future. Can be made.

前記呈示データ作成手段により作成された前記リモコン呈示データに基づく前記イベントの呈示を行なうリモコン呈示手段を前記リモートコントローラにさらに設けることができる。 It may further include a remote control presentation means for presenting the event based on the remote presentation data generated by the presentation data creating means to the remote controller.

前記センサが複数種類存在し、前記制御手段には、さらに、前記イベントを今後呈示しないとユーザが判断したことにより検出が不要な前記センサの電源をオンまたはオフする制御を実行させることができる。 There are a plurality of types of sensors, and the control means can further execute control for turning on or off the power of the sensors that do not need to be detected when the user determines that the event will not be presented in the future .

複数の前記センサには、カメラ、マイクロホン、または赤外線センサのいずれかを含むようにさせることができる。 The plurality of sensors may include any one of a camera, a microphone, and an infrared sensor .

前記制御手段には、時間の経過、または、前記センサデータの内容に応じて、前記センサの電源をオンまたはオフする制御も実行させることができる。 The control means can also execute control for turning on or off the power of the sensor according to the passage of time or the content of the sensor data .

前記呈示データ作成手段には、前記イベント判定手段により前記イベントが発生していないと判定された場合、テレビジョン放送信号を前記呈示データとし、前記イベント判定手段により前記イベントが発生したと判定された場合、テレビジョン放送信号の一部に前記イベントデータを挿入して前記呈示データを作成させることができる。 When the event determination unit determines that the event has not occurred, the presentation data creation unit determines that the event has occurred by using the television broadcast signal as the presentation data and the event determination unit. In this case, the presentation data can be created by inserting the event data into a part of the television broadcast signal .

本発明の一側面の情報処理方法は、センサデータに基づく監視処理を実行する情報処理システムの情報処理方法において、監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサステップと、前記センサステップの処理により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算ステップと、前記特徴量計算ステップの処理により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定ステップと、前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成ステップと、前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップと、前記呈示制御ステップにより呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得ステップと、前記入力取得ステップの処理により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御ステップとを含むことを特徴とする。 An information processing method according to one aspect of the present invention is an information processing method for an information processing system that performs monitoring processing based on sensor data, and a sensor step that acquires sensor data output by a sensor that detects a state of a region to be monitored ; determining a feature quantity calculation step, the feature amount calculated by the processing of the feature quantity calculation step of calculating a feature amount obtained by a predetermined calculation with respect to the sensor data acquired by the processing of the sensor step An event determination step for determining whether or not an event has occurred by comparing with a parameter, and event data for notifying the event when it is determined that the event has occurred by processing of the event determination step. A presentation data creation step for creating presentation data including the presentation data; A presentation step of controlling the presentation based on the presentation data generated by the process of forming step, an input for acquiring a user's input of the determination whether the future presents the events presented by the presentation control step Based on the acquisition step and the determination input from the user acquired by the process of the input acquisition step, the occurrence of the event is easily detected, or the occurrence of the event is difficult to be detected. And a control step for controlling the change of the calculation of the quantity or the update of the determination parameter .

本発明の一側面の記録媒体は、センサデータに基づく監視処理を実行するプログラムであって、監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサステップと、前記センサステップの処理により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算ステップと、前記特徴量計算ステップの処理により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定ステップと、前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成ステップと、前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップと、前記呈示制御ステップにより呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得ステップと、前記入力取得ステップの処理により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御ステップとを含むコンピュータが読み取り可能なプログラムが記録されていることを特徴とする。 A recording medium according to one aspect of the present invention is a program that executes monitoring processing based on sensor data, the sensor step for obtaining sensor data output by a sensor that detects the state of an area to be monitored, and the processing of the sensor step comparing the feature quantity calculation step of calculating a feature amount obtained by predetermined calculation with respect to the acquired sensor data, the feature amount calculated by the processing of the feature quantity calculation step and the decision parameter by The event determination step for determining whether or not an event has occurred, and when the event determination step determines that the event has occurred, presentation data including event data for notifying the event is created The presenting data creation step and the processing of the presenting data creation step A presentation step of controlling the presentation based on the presentation data was made, and the input obtaining step of obtaining user input for determined whether future presents the events presented by the presentation control step, the Changing the calculation of the feature amount so that the occurrence of the event is easily detected or the occurrence of the event is difficult to be detected based on the input of the judgment acquired from the user acquired by the processing of the input acquisition step Alternatively, a computer-readable program including a control step for controlling update of the determination parameter is recorded.

本発明の一側面のプログラムは、センサデータに基づく監視処理を実行するプログラムであって、監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサステップと、前記センサステップの処理により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算ステップと、前記特徴量計算ステップの処理により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定ステップと、前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成ステップと、前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップと、前記呈示制御ステップにより呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得ステップと、前記入力取得ステップの処理により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御ステップとをコンピュータに実行させることを特徴とする。 A program according to one aspect of the present invention is a program that executes monitoring processing based on sensor data, and includes a sensor step that acquires sensor data output by a sensor that detects a state of a region to be monitored, and processing of the sensor step. a feature value calculating step of calculating a feature amount obtained by predetermined calculation with respect to the acquired sensor data, by comparing said characteristic quantity determination parameters calculated by the processing of the feature quantity calculation step An event determination step for determining whether or not an event has occurred, and presentation data including event data for notifying the event when it is determined by the event determination step that the event has occurred The presentation data creation step and the processing of the presentation data creation step A presentation step of controlling the presentation based on the presentation data created, an input obtaining step of obtaining user input for determined whether future presents the events presented by the presentation control step, the Changing the calculation of the feature amount so that the occurrence of the event is easily detected or the occurrence of the event is difficult to be detected based on the input of the judgment acquired from the user acquired by the processing of the input acquisition step Alternatively , a control step for controlling the update of the determination parameter is executed by a computer.

本発明の一側面においては、監視したい領域の状態を検出するセンサが出力するセンサデータに対して予め決められた計算により求められる特徴量が計算され、判定パラメータと比較することにより、イベントが発生したか否かが判定される。そして、イベントが発生したと判定された場合、イベントを通知するためのイベントデータを含む呈示データが作成され、呈示されたイベントを今後も呈示するか否かについてのユーザの判断の入力に基づいて、イベントの発生が検出され易いように、または、イベントの発生が検出され難いように、特徴量の計算の変更または判定パラメータの更新が制御される。 In one aspect of the present invention, a feature amount obtained by a predetermined calculation is calculated with respect to sensor data output from a sensor that detects a state of an area to be monitored, and an event is generated by comparing with a determination parameter. It is determined whether or not. When it is determined that an event has occurred, presentation data including event data for notifying the event is created, and based on a user's determination input as to whether or not to present the presented event in the future The change in the calculation of the feature amount or the update of the determination parameter is controlled so that the occurrence of the event is easily detected or the occurrence of the event is difficult to be detected .

本発明の一側面によれば、イベントを通知することができる。また、本発明の一側面によれば、呈示されたイベントを今後も呈示するか否かについてのユーザの判断の入力に基づいて、柔軟にイベントを検出および通知することができる。さらに、本発明の一側面によれば、無駄な消費電力を抑えることができる。
According to one aspect of the present invention, an event can be notified. Further, according to one aspect of the present invention, an event can be detected and notified flexibly based on an input of a user's judgment as to whether or not to present a presented event in the future . Furthermore, according to one aspect of the present invention, useless power consumption can be suppressed.

図1は、本発明を適用した監視システム10の構成例を表している。この構成例においては、図中左側の監視領域側にマルチセンサカメラ1が備えられており、図中右側の通知・呈示側に、処理ボックス2、呈示部3、および、処理ボックス2を遠隔操作するためのリモートコントローラ4が備えられている。マルチセンサカメラ1と処理ボックス2は、無線通信を行なう。   FIG. 1 shows a configuration example of a monitoring system 10 to which the present invention is applied. In this configuration example, the multi-sensor camera 1 is provided on the left monitoring area side in the figure, and the processing box 2, the presentation unit 3, and the processing box 2 are remotely operated on the notification / presentation side on the right side in the figure. A remote controller 4 is provided. The multi-sensor camera 1 and the processing box 2 perform wireless communication.

マルチセンサカメラ1には、複数のセンサが設けられており、各センサは、バッテリにより駆動される。また、各センサは、イベントを監視したい領域(必要な場所)に設置されている。イベントが発生した場合、処理ボックス2は、呈示画像および音声を構築し、呈示部3およびリモートコントローラ4に通知し、呈示させる。呈示部3は、例えば、一般のテレビジョン受像機とされる。この場合、呈示部3は、イベントが発生していない場合(通常)、一般の視聴信号(放送信号に基づく映像)を表示し、イベントが発生した場合、一般の視聴信号の一部分にイベント画像が挿入されたピクチャインピクチャの画像を表示する。なお、呈示部3は、テレビジョン受像機に限定されるものではなく、専用のモニタでもよい。また、表示される画像は、ピクチャインピクチャの画像ではなく、画面全体の画像としてもよい。   The multi-sensor camera 1 is provided with a plurality of sensors, and each sensor is driven by a battery. Each sensor is installed in an area (necessary place) where an event is to be monitored. When an event occurs, the processing box 2 constructs a presentation image and sound, notifies the presentation unit 3 and the remote controller 4 to present them. The presenting unit 3 is, for example, a general television receiver. In this case, the presentation unit 3 displays a general viewing signal (video based on a broadcast signal) when an event does not occur (normal), and when an event occurs, an event image is displayed on a part of the general viewing signal. The inserted picture-in-picture image is displayed. The presenting unit 3 is not limited to a television receiver, and may be a dedicated monitor. The displayed image may be an image of the entire screen, not a picture-in-picture image.

ユーザは、呈示されたイベントに対して、判断を行ない、判断の結果に基づいて、リモートコントローラ4から指令を入力することができる。例えば、イベントを今後も知らせて欲しいときは、そのことを、OKボタン(後述する図9のOKボタン291)を操作して指示することができる。このユーザからの判断の入力に基づいて、処理ボックス2により検出されるイベントが時間と共に変化し、ユーザが監視システム10を使う度にユーザが意図するイベントのみが検出され、通知されるようになる。   The user can make a determination on the presented event and can input a command from the remote controller 4 based on the result of the determination. For example, when an event is desired to be notified in the future, this can be instructed by operating an OK button (an OK button 291 in FIG. 9 described later). Based on the judgment input from the user, the event detected by the processing box 2 changes with time, and whenever the user uses the monitoring system 10, only the event intended by the user is detected and notified. .

マルチセンサカメラ1に搭載されている複数のセンサおよび信号処理部(図示せず)は必要な時に、必要なもののみが動作するため、無駄な消費電力を抑えることができる。   Since a plurality of sensors and a signal processing unit (not shown) mounted on the multi-sensor camera 1 operate only when necessary, wasteful power consumption can be suppressed.

図2は、図1のマルチセンサカメラ1の機能的構成を示すブロック図である。   FIG. 2 is a block diagram showing a functional configuration of the multi-sensor camera 1 of FIG.

マルチセンサカメラ1には、カメラ21、マイクロホン22、赤外線センサ23、その他のセンサ24、信号処理部25、送信部26、受信部27、およびバッテリ28が設けられている。   The multi-sensor camera 1 includes a camera 21, a microphone 22, an infrared sensor 23, other sensors 24, a signal processing unit 25, a transmission unit 26, a reception unit 27, and a battery 28.

信号処理部25は、赤外線センサ23、その他のセンサ24など、複数のセンサから得られるデータに基づいて、イベントを検出し、イベントが発生した場合、イベント呈示に必要なデータを、送信部26を介して処理ボックス2に送信する(処理ボックス2にイベントを通知する)。その他のセンサ24は、例えば、明るさを検出するフォトセンサである場合、部屋の電気をつけたことを検知し、また、例えば、マイクロ波センサである場合、動いている物体の距離および動きを検出する。バッテリ28は、マルチセンサカメラ1の各部に対して必要な電力を供給している。   The signal processing unit 25 detects an event based on data obtained from a plurality of sensors such as the infrared sensor 23 and other sensors 24. When an event occurs, the signal processing unit 25 sends data necessary for event presentation to the transmission unit 26. To the processing box 2 (notifies the processing box 2 of the event). For example, when the sensor 24 is a photo sensor that detects brightness, it detects that the room has been turned on. When the sensor 24 is a microwave sensor, for example, the distance and movement of a moving object are detected. To detect. The battery 28 supplies necessary power to each part of the multi-sensor camera 1.

受信部27は、イベント通知に対応して処理ボックス2から送信されてくるユーザの判断信号、センサ制御信号、または、信号処理制御信号を受信し、信号処理部25に供給する。信号処理部25は、これらの信号に基づく処理を実行する。マルチセンサカメラ1がユーザ判断入力を取得することにより、イベント検出および呈示に必要なセンサ、信号処理部25、送信部26、および受信部27のみを動作させることができるため、マルチセンサカメラ1の消費電力を抑えることができる。   The receiving unit 27 receives a user determination signal, a sensor control signal, or a signal processing control signal transmitted from the processing box 2 in response to the event notification, and supplies the signal to the signal processing unit 25. The signal processing unit 25 executes processing based on these signals. Since the multi-sensor camera 1 acquires the user judgment input, only the sensors necessary for event detection and presentation, the signal processing unit 25, the transmission unit 26, and the reception unit 27 can be operated. Power consumption can be reduced.

また、このマルチセンサカメラ1は、小型、かつ、バッテリ駆動であり、さらに、無線通信機能を有しているため、大きなスペースを必要とせず、また、電源供給のための配線処理が不要なため、家庭内の様々な場所に、設置することができる。さらに、複数のセンサを搭載しているため、家庭内における様々なイベントを検知することができる。   In addition, the multi-sensor camera 1 is small and battery-driven, and further has a wireless communication function, so that a large space is not required and wiring processing for power supply is unnecessary. It can be installed in various places in the home. Furthermore, since a plurality of sensors are mounted, various events in the home can be detected.

図3は、図1の処理ボックス2の機能的構成を示すブロック図である。   FIG. 3 is a block diagram showing a functional configuration of the processing box 2 of FIG.

受信部51は、マルチセンサカメラ1の送信部26から無線(電波)で送信された信号を受信し、信号処理部52に供給する。信号処理部52は、一般視聴信号(テレビジョン放送信号)を受信するとともに、受信部51から供給された信号に基づく処理または呈示画像の構築を行なう。イベントが発生した場合、信号処理部52は、呈示部3への呈示データを構築し、呈示部3に出力するとともに、リモートコントローラ4へのリモコン呈示データを構築し、送信部53を介して、無線(赤外線または電波)でリモートコントローラ4に送信する。   The reception unit 51 receives a signal transmitted by radio (radio wave) from the transmission unit 26 of the multi-sensor camera 1 and supplies the signal to the signal processing unit 52. The signal processing unit 52 receives a general viewing signal (television broadcast signal), and performs processing based on the signal supplied from the receiving unit 51 or construction of a presented image. When an event occurs, the signal processing unit 52 constructs presentation data to the presentation unit 3 and outputs the data to the presentation unit 3, constructs remote control presentation data to the remote controller 4, and transmits via the transmission unit 53. It transmits to the remote controller 4 by radio (infrared or radio wave).

受信部54は、リモートコントローラ4から無線(赤外線または電波)で送信されたユーザの判断に基づく信号(ユーザ判断信号)を受信し、これを信号処理部52に供給する。信号処理部52は、このユーザ判断信号に基づく処理を実行するとともに、必要なデータを、送信部55を介して、マルチセンサカメラ1に無線(電波)で送信する。   The receiving unit 54 receives a signal (user determination signal) based on a user's determination transmitted wirelessly (infrared rays or radio waves) from the remote controller 4 and supplies the signal to the signal processing unit 52. The signal processing unit 52 executes processing based on the user determination signal and transmits necessary data to the multi-sensor camera 1 via the transmission unit 55 by radio (radio wave).

図4は、図1のリモートコントローラ4の機能的構成を示すブロック図である。   FIG. 4 is a block diagram showing a functional configuration of the remote controller 4 of FIG.

受信部81は、処理ボックス2の送信部53から無線(赤外線または電波)で送信された信号(例えば、リモコン呈示データ)を受信し、信号処理部82に供給する。信号処理部82は、取得した信号の復号または符号化など、信号に基づく処理を実行する。   The reception unit 81 receives a signal (for example, remote control presentation data) transmitted wirelessly (infrared rays or radio waves) from the transmission unit 53 of the processing box 2 and supplies the signal processing unit 82 with the signal. The signal processing unit 82 performs processing based on a signal such as decoding or encoding of the acquired signal.

リモコン呈示部83は、信号処理部82から送信された信号に基づく画像(文字、記号などを含む)を呈示する。ユーザ入力IF(インターフェース)部84は、イベントに対するユーザからの判断に基づく入力を受け付け、入力に基づく信号を信号処理部82に供給する。   The remote control presentation unit 83 presents an image (including characters and symbols) based on the signal transmitted from the signal processing unit 82. The user input IF (interface) unit 84 receives an input based on a determination from the user with respect to the event, and supplies a signal based on the input to the signal processing unit 82.

イベントが発生した場合、受信部81は、処理ボックス2の送信部53から送信されてくるリモコン呈示データを受信し、信号処理部82は、この呈示データに基づく画像をリモコン呈示部83に呈示させる。ユーザにより、ユーザ入力IF部84に判断が入力されると、ユーザ判断信号を信号処理部82に供給する。信号処理部82は、ユーザ判断信号を、送信部85から、無線(赤外線または電波)で処理ボックス2に送信する。   When an event occurs, the reception unit 81 receives remote control presentation data transmitted from the transmission unit 53 of the processing box 2, and the signal processing unit 82 causes the remote control presentation unit 83 to present an image based on the presentation data. . When determination is input to the user input IF unit 84 by the user, a user determination signal is supplied to the signal processing unit 82. The signal processing unit 82 transmits a user determination signal from the transmission unit 85 to the processing box 2 wirelessly (infrared rays or radio waves).

ユーザによる、例えば、「今後も知らせて欲しいイベントである」、または、「今後知らせないでよいイベントである」などの判断を入力することができるように、リモートコントローラ4上に2つのボタン(例えば、後述する図9のOKボタン291とNGボタン292)が設けられる。マルチセンサカメラ1と処理ボックス2は、このユーザからの判断の入力に基づいて、処理を変化させる。   For example, two buttons (for example, on the remote controller 4) can be input so that the user can input a determination such as “an event that I want to be notified in the future” or “an event that should not be notified in the future”. , An OK button 291 and an NG button 292 in FIG. 9 described later are provided. The multi-sensor camera 1 and the processing box 2 change the processing based on the input of judgment from the user.

図2乃至図4のマルチセンサカメラ1、処理ボックス2、および、リモートコントローラ4により構成される図1の監視システム10の主要部を接続して得られる原理的構成は、図5に示されるようになる。ただし、無線による通信路も有線の通信路として示されている。   The principle configuration obtained by connecting the main part of the monitoring system 10 of FIG. 1 composed of the multi-sensor camera 1, the processing box 2, and the remote controller 4 of FIGS. 2 to 4 is shown in FIG. become. However, a wireless communication path is also shown as a wired communication path.

図5の例における、複数のセンサ101a乃至センサ101nからなるセンサ101は、図2のマルチセンサカメラ1に対応させ、特徴量抽出部102、イベント判定部103、呈示データ構築部104、並びに、パラメータ制御部121、信号処理制御部122、および電源制御部123により構成される制御部108は、図3の処理ボックス2に対応させ、リモコン呈示部83およびユーザ入力IF部84は、図4のリモートコントローラ4に対応させることができる。ただし、この対応関係は任意であり、例えば、特徴量抽出部102、イベント判定部103、および制御部108のうちの一部または全部は、マルチセンサカメラ1側の構成として設けることも可能である(この例が、後述する図7に示されている)。   The sensor 101 including the plurality of sensors 101a to 101n in the example of FIG. 5 corresponds to the multi-sensor camera 1 of FIG. 2, and includes a feature amount extraction unit 102, an event determination unit 103, a presentation data construction unit 104, and parameters. The control unit 108 configured by the control unit 121, the signal processing control unit 122, and the power supply control unit 123 corresponds to the processing box 2 in FIG. This can correspond to the controller 4. However, this correspondence is arbitrary, and for example, some or all of the feature amount extraction unit 102, the event determination unit 103, and the control unit 108 can be provided as a configuration on the multi-sensor camera 1 side. (This example is shown in FIG. 7 described later).

次に、図6のフローチャートを参照して、図5の監視システム10により実行される処理を説明する。なお、この処理は、ユーザにより、監視領域における監視を開始するよう指令されたとき、開始される。   Next, processing executed by the monitoring system 10 of FIG. 5 will be described with reference to the flowchart of FIG. This process is started when the user gives an instruction to start monitoring in the monitoring area.

ステップS1において、特徴量抽出部102は、監視領域に設けられているセンサ101を構成する複数のセンサ101a,101b,・・・,101nのそれぞれからセンサデータを取得する。   In step S1, the feature quantity extraction unit 102 acquires sensor data from each of the plurality of sensors 101a, 101b,..., 101n constituting the sensor 101 provided in the monitoring area.

ステップS2において、特徴量抽出部102は、ステップS1の処理により取得した各種センサデータから各種特徴量を計算する。例えば、画像信号のフレーム間差分を取り、移動物体の位置を表すフレーム間差分の重心位置が計算される。あるいは、赤外線センサのデータの変化量が算出される。   In step S2, the feature quantity extraction unit 102 calculates various feature quantities from the various sensor data acquired by the process in step S1. For example, the inter-frame difference of the image signal is taken, and the barycentric position of the inter-frame difference representing the position of the moving object is calculated. Alternatively, the amount of change in data of the infrared sensor is calculated.

ステップS3において、イベント判定部103は、特徴量抽出部102により計算された各種特徴量を取得する。   In step S <b> 3, the event determination unit 103 acquires various feature amounts calculated by the feature amount extraction unit 102.

ステップS4において、イベント判定部103は、取得した各種特徴量に基づいて、イベントが発生したか否か(イベントであるか否か)を判定する。このととき、イベント判定部103は、自分自身に保持されているイベントを判定するための判定パラメータに基づいて、イベントを判定する。このパラメータは、パラメータ制御部121により制御され、更新される。ステップS4において、イベントであると判定された場合、処理はステップS5に進み、イベント判定部103は、イベントが発生したことを表すイベント発生信号と、イベント通知および呈示に必要なデータを呈示データ構築部104に供給する。   In step S <b> 4, the event determination unit 103 determines whether an event has occurred (whether it is an event) based on the acquired various feature amounts. At this time, the event determination unit 103 determines an event based on a determination parameter for determining an event held by itself. This parameter is controlled and updated by the parameter control unit 121. If it is determined in step S4 that the event has occurred, the process proceeds to step S5, and the event determination unit 103 presents an event occurrence signal indicating that the event has occurred and data necessary for event notification and presentation to construct the presentation data. Supplied to the unit 104.

ステップS6において、呈示データ構築部104は、特徴量抽出部102からイベント発生信号、イベント通知および呈示に必要なデータを取得し、一般視聴信号(テレビジョン放送信号)の一部にイベント呈示データを挿入した呈示データを作成する。また、呈示データ構築部104は、イベント呈示データにより構成される(一般視聴信号を含まない)リモートコントローラ4用の呈示データ(以下、リモコン呈示データと称する)を作成する。   In step S <b> 6, the presentation data construction unit 104 acquires event generation signals, event notifications, and data necessary for presentation from the feature amount extraction unit 102, and uses the event presentation data as part of the general viewing signal (television broadcast signal). Create the inserted presentation data. In addition, the presentation data construction unit 104 creates presentation data (hereinafter referred to as remote control presentation data) for the remote controller 4 configured by event presentation data (not including a general viewing signal).

ステップS7において、呈示データ構築部104は、ステップS6の処理により作成した呈示データを呈示部3に出力し、呈示部3に呈示させる。また、呈示データ構築部104は、リモコン呈示データをリモコン呈示部83に出力し、リモコン呈示部83に呈示させる。   In step S <b> 7, the presentation data construction unit 104 outputs the presentation data created by the process of step S <b> 6 to the presentation unit 3 and causes the presentation unit 3 to present it. Also, the presentation data construction unit 104 outputs the remote control presentation data to the remote control presentation unit 83 and causes the remote control presentation unit 83 to present it.

呈示データは、一般の視聴信号の一部にイベント呈示データを挿入して構成されているため、呈示部3には、ピクチャインピクチャの表示(例えば、後述する図15に示されるような表示)が呈示される。また、リモコン呈示データは、イベント呈示データから構成されているため、リモコン呈示部83には、イベントを表す表示(例えば、監視している場所の画像)のみが呈示される。   Since the presentation data is configured by inserting event presentation data into a part of a general viewing signal, the presentation unit 3 displays picture-in-picture (for example, display as shown in FIG. 15 described later). Is presented. Further, since the remote control presentation data is composed of event presentation data, only the display indicating the event (for example, the image of the monitored place) is presented on the remote control presentation unit 83.

ユーザは、リモコン呈示部83に通知および呈示されたイベント(画像および音声)を見て、判断(例えば、いま呈示されているイベントは、今後も知らせて欲しいイベントであるのか、または、今後しらせないでよいイベントであるのかの判断)を入力する。このとき、例えば、判断を入力させるように促す画像を、リモコン呈示部83に、表示させるようにしてもよい。ユーザからの判断が入力されると、ステップS8において、ユーザ入力IF部84は、ユーザからのイベントに対する判断の入力を取得する。ユーザ入力IF部84は、取得したユーザからの判断の入力に基づくユーザ判断信号を、パラメータ制御部121、信号処理制御部122、および電源制御部123により構成される制御部108に供給する。   The user looks at the event (image and sound) notified and presented to the remote control presenting unit 83, and determines (for example, the event that is currently presented is an event that the user wants to be notified in the future or will not let it be done in the future. To determine whether it is a good event). At this time, for example, an image that prompts the user to input a determination may be displayed on the remote control presentation unit 83. When the judgment from the user is input, in step S8, the user input IF unit 84 acquires the judgment input for the event from the user. The user input IF unit 84 supplies a user determination signal based on the acquired determination input from the user to the control unit 108 including the parameter control unit 121, the signal processing control unit 122, and the power supply control unit 123.

ステップS9において、パラメータ制御部121は、ステップS8の処理により取得したユーザ判断信号に基づいて、イベント判定部103に保持されているイベントを判定するための判定パラメータの更新を行ない、ユーザが意図するイベント検出が行なえるようにする。例えば、基準値以上の明るさが検出された場合、イベント検出信号が発生されるように設定されているとき、その基準値をより明るい基準値、またはより暗い基準値に変更することができる。   In step S9, the parameter control unit 121 updates the determination parameter for determining the event held in the event determination unit 103 based on the user determination signal acquired by the process in step S8, and the user intends. Enable event detection. For example, when brightness that is equal to or higher than the reference value is detected, when the event detection signal is set to be generated, the reference value can be changed to a brighter reference value or a darker reference value.

ステップS10において、信号処理制御部122は、ユーザ判断信号(ステップS8の処理により取得したユーザ判断信号)に基づいて、特徴量抽出部102を制御する。具体的には、不要な特徴量の検出を中止するように制御したり、軽い処理(例えば、少ない数の特徴量を検出する処理)から、必要な場合に重い処理(より多い数の特徴量を検出し、より正確に判定できるようにする処理)に切り換えるなどの制御をする。例えば、後述する図15に示されるような領域322(イベントとして検出して欲しい領域)と領域323(イベントとして検出する必要がない領域)のうち、領域323で人が撮影されたとしても、それを特徴量として検出させないようにすることができる。   In step S10, the signal processing control unit 122 controls the feature amount extraction unit 102 based on the user determination signal (the user determination signal acquired by the process in step S8). Specifically, control is performed such that detection of unnecessary feature values is stopped, or light processing (for example, processing for detecting a small number of feature values) to heavy processing (a larger number of feature values) when necessary. And control to switch to a process that allows more accurate determination. For example, even if a person is photographed in the area 323 out of the area 322 (area that is desired to be detected as an event) and the area 323 (area that is not necessarily detected as an event) as shown in FIG. Can be prevented from being detected as a feature quantity.

ステップS11において、電源制御部123は、ユーザ判断信号(ステップS8の処理により取得したユーザ判断信号)に基づいて、センサ101の電源をオンまたはオフするように制御する。具体的には、センサ101a乃至センサ101nのうち、特徴量抽出部102およびイベント判定部103で必要のないセンサの電源はオフするように制御する。これにより無駄なバッテリを消費するのを防ぐことができる。   In step S11, the power supply control unit 123 performs control to turn on or off the power of the sensor 101 based on the user determination signal (the user determination signal acquired by the process in step S8). Specifically, among the sensors 101a to 101n, the feature amount extraction unit 102 and the event determination unit 103 perform control so that the power of sensors unnecessary is turned off. This can prevent wasted battery consumption.

ステップS11の処理の後、処理はステップS1に戻り、同様の処理が繰り返される。   After the process of step S11, the process returns to step S1 and the same process is repeated.

一方、ステップS4において、イベント判定部103により、イベントでないと判定された場合、処理はステップS12に進み、呈示データ構築部104は、一般視聴信号(テレビジョン放送信号)をそのまま呈示データとして呈示部3に出力する。呈示部3は、一般視聴信号を呈示する。その後、処理はステップS1に戻り、それ以降の処理が繰り返される。   On the other hand, if the event determining unit 103 determines that the event is not an event in step S4, the process proceeds to step S12, and the presentation data constructing unit 104 directly uses the general viewing signal (television broadcast signal) as the presentation data. 3 is output. The presentation unit 3 presents a general viewing signal. Thereafter, the process returns to step S1, and the subsequent processes are repeated.

図6の処理により、ユーザは簡易な判断入力を行なうことにより、ユーザが意図するイベントを確実に検出することができ、かつ、必要な時のみ、各センサと処理部を動作するように制御することができるため、無駄な電力を消費することなく、マルチセンサカメラ1の低消費電力化が実現できる。   With the processing in FIG. 6, the user can reliably detect an event intended by the user by performing a simple determination input, and controls each sensor and the processing unit to operate only when necessary. Therefore, the power consumption of the multi-sensor camera 1 can be reduced without consuming unnecessary power.

以下に、図7乃至図18を参照して、監視システム(ホームセキュリティシステム)の具体例の1つを示す。   A specific example of the monitoring system (home security system) will be described below with reference to FIGS.

この例の場合、使用するセンサは、カメラ201および赤外線センサ202(図7)であり、ユーザは呈示されたイベントに対して「OK(今後もイベントとして検出して欲しい)」または「NG(今後はイベントとして検出しなくてもよい)」を入力する。また、この場合の、マルチセンサカメラ1の構成例は図7に示され、処理ボックス2の構成例は図8に示され、リモートコントローラ4の構成例は図9に示されている。さらに、各機器における処理を説明するフローチャートが図10乃至図14に示され、呈示部3に呈示される画像が図15および図16に示されている。また、リモコン呈示部283に呈示される画像が図17および図18に示されている。図中、図5と対応する部分については、同一の符号を付してあり、その説明は、繰り返しになるので省略する。   In this example, the sensors to be used are the camera 201 and the infrared sensor 202 (FIG. 7), and the user responds to the presented event with “OK (to be detected as an event in the future)” or “NG (from now on). May not be detected as an event). In this case, a configuration example of the multi-sensor camera 1 is shown in FIG. 7, a configuration example of the processing box 2 is shown in FIG. 8, and a configuration example of the remote controller 4 is shown in FIG. Furthermore, flowcharts for explaining processing in each device are shown in FIGS. 10 to 14, and images presented in the presentation unit 3 are shown in FIGS. 15 and 16. Further, images presented on the remote control presenting unit 283 are shown in FIGS. 17 and 18. In the figure, portions corresponding to those in FIG. 5 are given the same reference numerals, and the description thereof will be omitted because it will be repeated.

図7において、カメラ201と赤外線センサ202により取得されるセンサデータは、特徴量抽出部102に供給される。例えば、赤外線センサ202は、常にオンとされ、カメラ201は、電力消費を少なくするために通常はオフとされる(上述したように、制御部108により制御されている)。特徴量抽出部102は、赤外線センサ202により取得されたセンサデータから特徴量を抽出し、イベント判定部103に供給する。   In FIG. 7, sensor data acquired by the camera 201 and the infrared sensor 202 is supplied to the feature amount extraction unit 102. For example, the infrared sensor 202 is always turned on, and the camera 201 is normally turned off to reduce power consumption (controlled by the control unit 108 as described above). The feature amount extraction unit 102 extracts a feature amount from the sensor data acquired by the infrared sensor 202 and supplies the feature amount to the event determination unit 103.

イベントが発生したことの通知に使用される通知用データが特徴量抽出部102から符号化部203へ供給され、符号化部203は、これを符号化し、送信部204に供給する。イベントが発生した場合、送信部204は、符号化された通知用データを処理ボックス2へ送信する。また、処理ボックス2から送信されてくるユーザ判断信号は、受信部205により受信され、復号部206により復号された後、制御部108に供給される。制御部108は、上述したように、ユーザ判断信号に基づく処理を実行する。   Notification data used for notifying that an event has occurred is supplied from the feature quantity extraction unit 102 to the encoding unit 203, and the encoding unit 203 encodes this and supplies it to the transmission unit 204. When an event occurs, the transmission unit 204 transmits the encoded notification data to the processing box 2. The user determination signal transmitted from the processing box 2 is received by the receiving unit 205, decoded by the decoding unit 206, and then supplied to the control unit 108. As described above, the control unit 108 executes processing based on the user determination signal.

具体的には、制御部108は、図5を参照して説明したように、イベント判定部103を、イベント判定のパラメータを更新するように制御したり、特徴量抽出部102を、画像の特徴量の抽出処理を開始したり、または停止するよう制御したり、カメラ201または赤外線センサ202を、オンまたはオフするよう制御する。   Specifically, as described with reference to FIG. 5, the control unit 108 controls the event determination unit 103 to update the event determination parameter, and the feature amount extraction unit 102 controls the feature of the image. The amount extraction process is controlled to start or stop, and the camera 201 or the infrared sensor 202 is controlled to be turned on or off.

符号化部203、送信部204、受信部205、および復号部206も、イベントが発生したときのみ処理を実行させるようにすることで、無駄に電力を消費することなく、マルチセンサカメラ1を動作させることができる。   The encoding unit 203, the transmission unit 204, the reception unit 205, and the decoding unit 206 also operate the multi-sensor camera 1 without wasting power by causing the processing to be executed only when an event occurs. Can be made.

マルチセンサカメラ1の送信部204からイベント通知(通知用データ)が送信されて来た場合、通知用データは、図8の処理ボックス2の受信部241により受信され、復号部242により復号された後、呈示データ構築部104に供給される。呈示データ構築部104は、上述したように、一般視聴信号の一部にイベント信号を重畳した呈示データを作成し、呈示部3へ出力するとともに、イベントデータそのものを、リモコン呈示データとして符号化部243に符号化させ、送信部244に送信させる。マルチセンサカメラ1からイベント通知(通知用データ)が送信されて来ない場合(イベントが発生していない場合)、呈示データ構築部104は、一般視聴信号そのものを呈示データとして呈示部3へ出力し、呈示させる。   When an event notification (notification data) is transmitted from the transmission unit 204 of the multi-sensor camera 1, the notification data is received by the reception unit 241 of the processing box 2 in FIG. 8 and decoded by the decoding unit 242. Thereafter, the data is supplied to the presentation data construction unit 104. As described above, the presentation data construction unit 104 creates presentation data in which an event signal is superimposed on a part of the general viewing signal, outputs the presentation data to the presentation unit 3, and encodes the event data itself as remote control presentation data. The data is encoded by 243 and transmitted to the transmission unit 244. When an event notification (data for notification) is not transmitted from the multi-sensor camera 1 (when no event has occurred), the presentation data construction unit 104 outputs the general viewing signal itself to the presentation unit 3 as presentation data. , To present.

リモコン呈示データの送信に伴って、リモートコントローラ4から、ユーザ判断信号が送信されてくる。そこで、処理ボックス2の受信部245は、これを受信し、復号部246に復号させる。復号されたユーザ判断信号は、呈示データ構築部104および符号化部247に供給される。呈示データ構築部104は、ユーザ判断信号に基づいて、例えば、ピクチャインピクチャの画像を生成する処理を中止するなどの処理を実行する。符号化部247は、供給されたユーザ判断信号を符号化し、送信部248に送信させる。送信部248により送信されたユーザ判断信号は、マルチセンサカメラ1の受信部205に受信される。   A user determination signal is transmitted from the remote controller 4 along with the transmission of the remote control presentation data. Therefore, the receiving unit 245 of the processing box 2 receives this and causes the decoding unit 246 to decode it. The decoded user determination signal is supplied to the presentation data construction unit 104 and the encoding unit 247. Based on the user determination signal, the presentation data construction unit 104 executes processing such as stopping processing for generating a picture-in-picture image, for example. The encoding unit 247 encodes the supplied user determination signal and causes the transmission unit 248 to transmit the encoded user determination signal. The user determination signal transmitted by the transmission unit 248 is received by the reception unit 205 of the multi-sensor camera 1.

処理ボックス2の送信部244からリモコン呈示データが送信されてきた場合、図9のリモートコントローラ4の受信部281は、これを受信し、復号部282に供給する。復号部282は、リモコン呈示データを復号し、復号されたリモコン呈示データに基づく画像をリモコン呈示部83に呈示させる。   When remote control presentation data is transmitted from the transmission unit 244 of the processing box 2, the reception unit 281 of the remote controller 4 in FIG. 9 receives this and supplies it to the decoding unit 282. The decoding unit 282 decodes the remote control presentation data and causes the remote control presentation unit 83 to present an image based on the decoded remote control presentation data.

これに対して、ユーザは、OKボタン291またはNGボタン292を操作することにより、判断(イベントとして検出する(OK)か、しない(NG)か)を入力することができる。   On the other hand, the user can input a judgment (whether it is detected as an event (OK) or not (NG)) by operating the OK button 291 or the NG button 292.

ユーザ入力IF84は、OKボタン291またはNGボタン292のうち、いずれか1つが操作されたことを検出し、ユーザ判断信号として符号化部283に供給する。符号化部283は、ユーザ判断信号を符号化し、送信部284に送信させる。送信部284は、ユーザ判断信号を、処理ボックス2の受信部245に送信する。   The user input IF 84 detects that any one of the OK button 291 or the NG button 292 is operated, and supplies it to the encoding unit 283 as a user determination signal. The encoding unit 283 encodes the user determination signal and causes the transmission unit 284 to transmit it. The transmission unit 284 transmits the user determination signal to the reception unit 245 of the processing box 2.

次に、図10乃至図14のフローチャートを参照して、図7のマルチセンサカメラ1、図8の処理ボックス2、および図9のリモートコントローラ4における処理を説明する。   Next, processing in the multi-sensor camera 1 in FIG. 7, the processing box 2 in FIG. 8, and the remote controller 4 in FIG. 9 will be described with reference to the flowcharts in FIGS.

最初に、図10と図11のフローチャートを参照して、図7のマルチセンサカメラ1における処理を説明する。なお、この処理は、ユーザにより、監視領域における監視を開始するよう指令されたとき、開始される。   First, processing in the multi-sensor camera 1 of FIG. 7 will be described with reference to the flowcharts of FIGS. 10 and 11. This process is started when the user gives an instruction to start monitoring in the monitoring area.

ステップS51において、必要であるとされているカメラ201と赤外線センサ202は、それぞれ画像データと検出データをセンサデータとして取得し、特徴量抽出部102に供給する。いまの例の場合、カメラ201と赤外線センサ202が両方とも動作している(必要である)ようにしたが、これに限定されず、例えば、赤外線センサ202のみ、または、カメラ201のみが動作しているものとしてもよい。   In step S <b> 51, the camera 201 and the infrared sensor 202 that are deemed necessary acquire image data and detection data as sensor data, and supply them to the feature amount extraction unit 102. In the present example, both the camera 201 and the infrared sensor 202 are operated (necessary). However, the present invention is not limited to this. For example, only the infrared sensor 202 or only the camera 201 operates. It is good as it is.

ステップS52において、特徴量抽出部102は、必要な特徴量を計算する。具体的には、カメラ201が出力した画像データのフレーム間差分、フレーム間差分の重心位置、および赤外線センサ202が出力したセンサデータの変化量等の必要な特徴量を計算する。なお、必要な特徴量は時によって変換する。これは、制御部108により制御されるためである。特徴量抽出部102は、計算した各種特徴量を、イベント判定部103に供給するとともに、通知用データとして符号化部203に供給する。   In step S52, the feature amount extraction unit 102 calculates a necessary feature amount. Specifically, necessary feature amounts such as the inter-frame difference of the image data output from the camera 201, the barycentric position of the inter-frame difference, and the change amount of the sensor data output from the infrared sensor 202 are calculated. Note that necessary feature values are converted from time to time. This is because it is controlled by the control unit 108. The feature amount extraction unit 102 supplies the calculated various feature amounts to the event determination unit 103 and also supplies it to the encoding unit 203 as notification data.

ステップS53において、イベント判定部103は、供給された各種特徴量(ステップS52の処理により計算され、供給された各種特徴量)を取得する。   In step S53, the event determination unit 103 acquires the supplied various feature amounts (various feature amounts calculated and supplied by the processing in step S52).

ステップS54において、イベント判定部103は、取得した各種特徴量に基づいて、イベントが発生したか否か(イベントであるか否か)を判定する。このとき、イベント判定部103は、自分自身に保持されているイベントを判定するための判定パラメータに基づいて、イベントを判定する。このパラメータは、制御部108により制御され、更新される。ステップS54において、イベントであると判定された場合、処理はステップS55に進み、イベント判定部103は、イベント発生信号を符号化部203、送信部204、受信部205および復号部206に送信する。符号化部203、送信部204、受信部205および復号部206は、このイベント発生信号が供給されたとき動作状態となる。従って、イベント発生信号が供給されないとき、非動作状態(オフ状態)となっているので、電力が無駄に消費されるのを抑制することができる。   In step S54, the event determination unit 103 determines whether an event has occurred (whether or not it is an event) based on the acquired various feature amounts. At this time, the event determination unit 103 determines an event based on a determination parameter for determining an event held by itself. This parameter is controlled and updated by the control unit 108. If it is determined in step S54 that the event is an event, the process proceeds to step S55, and the event determination unit 103 transmits the event occurrence signal to the encoding unit 203, the transmission unit 204, the reception unit 205, and the decoding unit 206. The encoding unit 203, the transmission unit 204, the reception unit 205, and the decoding unit 206 are in an operating state when this event occurrence signal is supplied. Therefore, when the event occurrence signal is not supplied, it is in the non-operating state (off state), so that it is possible to suppress wasteful consumption of power.

ステップS56において、符号化部203は、ステップS52の処理により特徴量抽出部102から送信された通知用データ(イベント通知用データ)を受信し、符号化し、送信部204に供給する。   In step S <b> 56, the encoding unit 203 receives the notification data (event notification data) transmitted from the feature amount extraction unit 102 in the process of step S <b> 52, encodes it, and supplies it to the transmission unit 204.

ステップS57において、送信部204は、符号化部203により符号化され、供給された通知用データを処理ボックス2に送信する。   In step S <b> 57, the transmission unit 204 transmits the notification data encoded and supplied by the encoding unit 203 to the processing box 2.

処理ボックス2は、この通知用データを受信し(後述する図12のステップS103)、これに対応するユーザ判断信号を送信してくる(後述する図12のステップS112)。   The processing box 2 receives the notification data (step S103 in FIG. 12 to be described later) and transmits a user determination signal corresponding thereto (step S112 in FIG. 12 to be described later).

そこで、ステップS58において、受信部205は、ユーザ判断信号が送信されてきたか否かを判定する。ユーザ判断信号が送信されてきた場合、処理はステップS59に進み、受信部205は、ユーザ判断信号を受信し、復号部206に供給する。   In step S58, the receiving unit 205 determines whether a user determination signal has been transmitted. When the user determination signal is transmitted, the process proceeds to step S59, and the reception unit 205 receives the user determination signal and supplies it to the decoding unit 206.

ステップS60において、復号部206は、ユーザ判断信号を復号し、制御部108に供給する。   In step S <b> 60, the decoding unit 206 decodes the user determination signal and supplies it to the control unit 108.

ステップS61において、制御部108は、イベント判定部103のパラメータ変更制御、特徴量抽出部102の信号処理制御、およびセンサの電源制御などの制御を実行する。詳細は、図5と図6を参照して説明したので省略する。   In step S <b> 61, the control unit 108 executes control such as parameter change control of the event determination unit 103, signal processing control of the feature amount extraction unit 102, and sensor power control. Details have been described with reference to FIG. 5 and FIG.

ステップS54においてイベントでないと判定された場合、ステップS58においてユーザ判断信号が送信されてこないと判定された場合、または、ステップS61の処理の後、処理はステップS51に戻り、それ以降の処理が繰り返される。   If it is determined in step S54 that the event is not an event, if it is determined in step S58 that a user determination signal has not been transmitted, or after the process in step S61, the process returns to step S51, and the subsequent processes are repeated. It is.

次に、図12と図13を参照して、図10と図11のマルチセンサカメラ1の処理に対応する図8の処理ボックス2における処理を説明する。なお、この処理は、ユーザにより呈示部3に対して一般視聴信号(放送番組信号)に対応する画像の呈示または、監視領域における開始を開始するよう指令されたとき、開始される。   Next, processing in the processing box 2 in FIG. 8 corresponding to the processing of the multi-sensor camera 1 in FIGS. 10 and 11 will be described with reference to FIGS. 12 and 13. This process is started when the user instructs the presenting unit 3 to start presenting an image corresponding to the general viewing signal (broadcast program signal) or starting in the monitoring area.

ステップS101において、受信部241は、イベント通知があるか否かを判定する。具体的には、受信部241は、マルチセンサカメラ1の送信部204から通知用データが送信されてきたか否かを判定する。ステップS101において、イベント通知がされないと判定された場合(通知用データが送信されてこないと判定された場合)、処理はステップS102に進み、呈示データ構築部104は、一般視聴信号をそのまま呈示データとして、呈示部3に出力し、呈示部3に呈示させる。その後、処理はステップS101に戻り、それ以降の処理が繰り返される。   In step S101, the reception unit 241 determines whether there is an event notification. Specifically, the reception unit 241 determines whether notification data has been transmitted from the transmission unit 204 of the multi-sensor camera 1. In step S101, when it is determined that the event notification is not made (when it is determined that the notification data is not transmitted), the process proceeds to step S102, and the presentation data construction unit 104 directly displays the general viewing signal as the presentation data. Is output to the presenting unit 3 and is presented to the presenting unit 3. Thereafter, the processing returns to step S101, and the subsequent processing is repeated.

ステップS101において、イベント通知があると判定された場合、ステップS103において、受信部241は、通知用データを受信し、復号部242に復号させる。復号部242は、復号した通知用データを呈示データ構築部104に供給する。   If it is determined in step S101 that there is an event notification, in step S103, the reception unit 241 receives the notification data and causes the decoding unit 242 to decode it. The decryption unit 242 supplies the decrypted notification data to the presentation data construction unit 104.

ステップS104において、呈示データ構築部104は、供給された通知用データを受信し、呈示データを作成する。具体的には、呈示データ構築部104は、一般視聴画像の一部にイベント画像を多重化させることで呈示データを作成する(ピクチャインピクチャとなる画像データを作成する)。その後、呈示データ構築部104は、作成した呈示データを呈示部3に出力し、呈示させる。   In step S104, the presentation data construction unit 104 receives the supplied notification data and creates presentation data. Specifically, the presentation data construction unit 104 creates presentation data by creating an event image on a part of a general viewing image (creates image data to be a picture-in-picture). Thereafter, the presentation data construction unit 104 outputs the created presentation data to the presentation unit 3 for presentation.

このとき、呈示部3には、図15または図16に示されるような画像が表示される。図15の例の場合、呈示部3には、一般視聴画面320の一部に、イベント呈示領域321が呈示されている。イベント呈示領域321の、図中、左側の領域322と、右側の領域323のうち、右側の領域323に、カメラ201で撮影された人の画像が表示されている。このイベント呈示に対してユーザは、リモートコントローラ4のOK(今後もイベントとして検出して欲しい)ボタン291、またはNO(今後はイベントとして検出しなくてもよい)ボタン292を操作することで、判断を入力することになる。このユーザ判断信号がリモートコントローラ4から送信されてくる(後述する図14のステップS156)。   At this time, an image as shown in FIG. 15 or 16 is displayed on the presenting unit 3. In the case of the example of FIG. 15, an event presentation area 321 is presented on the presentation unit 3 in a part of the general viewing screen 320. In the event presentation area 321, the image of the person photographed by the camera 201 is displayed in the right area 323 of the left area 322 and the right area 323 in the drawing. In response to the event presentation, the user operates the OK (desired to be detected as an event in the future) button 291 or the NO (does not be detected as an event in the future) button 292 of the remote controller 4 to make a determination. Will be entered. This user determination signal is transmitted from the remote controller 4 (step S156 in FIG. 14 described later).

いま、領域322と領域323のうち、左側の領域322が、ユーザがイベントとして検出して欲しい領域であるとすると、ユーザは、図15に示されているようなイベントの呈示に対して、NOボタン292を操作する。ユーザによりNOボタン292が操作された場合、これに対応するユーザ判断信号が、リモートコントローラ4から送信されてくる。処理ボックス2はこれを受信すると、それをマルチセンサカメラ1に送信する(後述するステップS112)。上述したように、マルチセンサカメラ1の制御部108は、このユーザ判断信号を受信すると、特徴量抽出部102を制御し、カメラ201の画角の右側の領域を特徴量抽出の範囲から除外する(図11のステップS61)。その結果、以後、画角の右側の領域で人が撮影されても、イベント発生信号が発生されず、左側の領域で人が撮影されたとき、イベント通知が行なわれる。これにより、例えば、図16に示されるような呈示が行なわれるようになる。   Assuming that the left region 322 of the regions 322 and 323 is a region that the user wants to detect as an event, the user does not respond to the event presentation as shown in FIG. The button 292 is operated. When the NO button 292 is operated by the user, a user determination signal corresponding to this is transmitted from the remote controller 4. When receiving this, the processing box 2 transmits it to the multi-sensor camera 1 (step S112 described later). As described above, when receiving the user determination signal, the control unit 108 of the multi-sensor camera 1 controls the feature amount extraction unit 102 to exclude the area on the right side of the angle of view of the camera 201 from the feature amount extraction range. (Step S61 in FIG. 11). As a result, even if a person is photographed in the area on the right side of the angle of view thereafter, an event occurrence signal is not generated, and event notification is performed when a person is photographed in the area on the left side. Thereby, for example, a presentation as shown in FIG. 16 is performed.

ユーザによりNOボタン292が操作された場合、呈示部3には、一般視聴画像のみが呈示される。すなわち、イベント呈示領域321は表示されない。これによりユーザは無駄なイベントを呈示されることなく、必要な場所だけ、イベント呈示領域321を見ることができる。   When the user operates the NO button 292, only the general viewing image is presented on the presentation unit 3. That is, the event presentation area 321 is not displayed. As a result, the user can view the event presentation area 321 only in a necessary place without being presented with a useless event.

図12に戻って、ステップS105において、呈示データ構築部104は、リモコン呈示データを作成し、符号化部243に出力する。リモコン呈示データには、一般視聴信号は含まれず、リモコン呈示データは、通知用データそのものから構成されている。リモートコントローラ4は、リモコン呈示データを受信すると、対応する画像を図17または図18に示されるように表示する(後述する図14のステップS153)。   Returning to FIG. 12, in step S <b> 105, the presentation data construction unit 104 creates remote control presentation data and outputs it to the encoding unit 243. The remote control presentation data does not include a general viewing signal, and the remote control presentation data is composed of notification data itself. When receiving the remote control presentation data, the remote controller 4 displays the corresponding image as shown in FIG. 17 or 18 (step S153 in FIG. 14 described later).

ステップS106において、符号化部243は、ステップS105の処理により供給されたリモコン呈示データを符号化し、これを送信部244に供給する。   In step S106, the encoding unit 243 encodes the remote control presentation data supplied by the process of step S105, and supplies this to the transmission unit 244.

ステップS107において、送信部244は、ステップS106の処理により供給された、符号化されたリモコン呈示データをリモートコントローラ4に送信する。リモートコントローラ4は、これを受信し(後述する図14のステップS151)、呈示した(後述する図14のステップS153)後、ユーザにより入力された判断に基づく信号であるユーザ判断信号を送信してくる(後述する図14のステップS156)。   In step S107, the transmission unit 244 transmits the encoded remote control presentation data supplied by the processing in step S106 to the remote controller 4. The remote controller 4 receives this (step S151 in FIG. 14 to be described later), and after presenting (step S153 in FIG. 14 to be described later), transmits a user determination signal that is a signal based on the determination input by the user. (Step S156 in FIG. 14 described later).

そこで、ステップS108において、受信部245は、ユーザ判断信号が送信されてきたか否かを判定する。ユーザ判断信号が送信されてきたと判定された場合、ステップS109において、受信部245は、ユーザ判断信号を受信し、これを復号部246に供給する。   Therefore, in step S108, the receiving unit 245 determines whether or not a user determination signal has been transmitted. If it is determined that the user determination signal has been transmitted, the reception unit 245 receives the user determination signal and supplies it to the decoding unit 246 in step S109.

ステップS110において、復号部246は、ステップS109の処理により供給されたユーザ判断信号を復号し、これを呈示データ構築部104に供給するとともに、符号化部247に供給する。   In step S110, the decoding unit 246 decodes the user determination signal supplied by the process of step S109, supplies this to the presentation data construction unit 104, and supplies it to the encoding unit 247.

ステップS111において、符号化部247は、ステップS110の処理により供給されたユーザ判断信号を符号化し、これを送信部248に供給する。   In step S <b> 111, the encoding unit 247 encodes the user determination signal supplied by the process of step S <b> 110 and supplies this to the transmission unit 248.

ステップS112において、送信部248は、ステップS111の処理により符号化され、供給されたユーザ判断信号をマルチセンサカメラ1に送信する。マルチセンサカメラ1は、上述したように、ユーザ判断信号に基づく処理を実行する(図11のステップS61)。   In step S112, the transmission unit 248 transmits the supplied user determination signal encoded by the process of step S111 to the multi-sensor camera 1. As described above, the multi-sensor camera 1 executes processing based on the user determination signal (step S61 in FIG. 11).

ステップS113において、呈示データ構築部104は、ステップS110の処理により復号部246により復号されたユーザ判断信号を取得し、ユーザ判断信号に基づく処理を実行する。   In step S113, the presentation data construction unit 104 acquires the user determination signal decoded by the decoding unit 246 by the process of step S110, and executes processing based on the user determination signal.

このとき、上述したように、呈示データ構築部104は、ユーザ判断信号に、呈示データの構築を停止するような信号(例えば、後述する図17のNGボタン292が操作されたとされる信号)が含まれていた場合、イベント画像を含む呈示データの構築を停止するなどの処理を実行する。このとき、呈示部3には、イベント呈示領域321が呈示されない。   At this time, as described above, the presentation data construction unit 104 includes a signal that stops construction of the presentation data (for example, a signal that an NG button 292 in FIG. 17 described later is operated) in the user determination signal. If it is included, processing such as stopping the construction of the presentation data including the event image is executed. At this time, the event presentation area 321 is not presented in the presentation unit 3.

また、呈示データ構築部104は、ユーザ判断信号に、呈示データの構築を続けるような信号(例えば、後述する図17のOKボタン291が操作されたとされる信号)が含まれていた場合、イベント画像を含む呈示データの構築を続ける処理を実行する。このとき、呈示部3には、図16に示されるようなイベント呈示領域321が呈示される。   In addition, when the user determination signal includes a signal that continues the construction of the presentation data (for example, a signal that an OK button 291 in FIG. 17 described later is operated), A process of continuing construction of the presentation data including the image is executed. At this time, the event presentation area 321 as shown in FIG.

ステップS102の処理の後、ステップS108においてユーザ判断信号が送信されてこないと判定された場合、またはステップS113の処理の後、処理はステップS101に戻り、それ以降の処理が繰り返される。   After step S102, if it is determined in step S108 that a user determination signal has not been transmitted, or after step S113, the process returns to step S101, and the subsequent processes are repeated.

次に、図14を参照して、図12と図13の処理ボックス2の処理に対応する図9のリモートコントローラ4における処理を説明する。なお、この処理は、処理ボックス2の送信部244により、図12のステップS107の処理が実行されたとき、開始される。   Next, processing in the remote controller 4 in FIG. 9 corresponding to the processing in the processing box 2 in FIGS. 12 and 13 will be described with reference to FIG. This process is started when the process of step S107 in FIG. 12 is executed by the transmission unit 244 of the process box 2.

ステップS151において、受信部281は、処理ボックス2の送信部244から送信されてきた(図12のステップS107の処理により処理ボックス2の送信部244から送信されてきた)リモコン呈示データを受信し、これを復号部282に供給する。   In step S151, the reception unit 281 receives remote control presentation data transmitted from the transmission unit 244 of the processing box 2 (transmitted from the transmission unit 244 of the processing box 2 by the processing of step S107 in FIG. 12). This is supplied to the decoding unit 282.

ステップS152において、復号部282は、ステップS151の処理により受信されたリモコン呈示データを復号し、復号したリモコン呈示データをリモコン呈示部83に供給する。   In step S152, the decoding unit 282 decodes the remote control presentation data received by the process of step S151, and supplies the decoded remote control presentation data to the remote control presentation unit 83.

ステップS153において、リモコン呈示部83は、受信したリモコン呈示データに基づく画像を呈示する。   In step S153, the remote control presenting unit 83 presents an image based on the received remote control presentation data.

このとき、リモコン呈示部83には、図17または図18に示されるような画像が表示される。この画像は、上述した図15と図16のイベント呈示領域321の画像と同様の画像である。すなわち、リモコン呈示データには、呈示部3に対して出力される呈示データのうちの、イベント呈示領域321に対応するデータのみが含まれている。   At this time, an image as shown in FIG. 17 or 18 is displayed on the remote control presentation unit 83. This image is the same image as the image of the event presentation area 321 in FIGS. 15 and 16 described above. That is, the remote control presentation data includes only data corresponding to the event presentation area 321 among the presentation data output to the presentation unit 3.

図17の例の場合、リモコン呈示部83には、リモコン呈示データに基づくイベントが呈示されている。リモコン呈示部83の図中左側の領域293と右側の領域294のうち、左側の領域293が、ユーザがイベントとして検出して欲しい領域であるとすると、図17に示されるように、右側の領域294に人の画像が表示されている場合、このイベント呈示に対してユーザは、OK(今後もイベントとして検出して欲しい)ボタン291とNO(今後はイベントとして検出しなくてもよい)ボタン292のうち、NOボタン292を操作する。これに対して、図18に示されるように、左側の領域293に人の画像が表示されている場合、ユーザは、OKボタン291を操作する。   In the case of the example in FIG. 17, the remote control presentation unit 83 presents an event based on the remote control presentation data. Of the left region 293 and the right region 294 in the figure of the remote control presentation unit 83, if the left region 293 is a region that the user wants to detect as an event, as shown in FIG. 17, the right region When a person image is displayed on the 294, the user presents an OK (desired to be detected as an event in the future) button 291 and a NO (may not be detected as an event in the future) button 292 for the event presentation. Of these, the NO button 292 is operated. On the other hand, as shown in FIG. 18, when a person image is displayed in the left area 293, the user operates the OK button 291.

そこで、ステップS154において、ユーザ入力IF部84は、ユーザの判断が、入力されたか(OKボタン291またはNGボタン292のいずれか1つが操作されたか)否かを判定する。ユーザの判断が入力されたと判定された場合、処理はステップS155に進み、ユーザ入力IF部84は、ユーザの判断に基づく信号であるユーザ判断信号を符号化部283に供給し、符号化部283は、これを符号化する。その後、符号化部283は、符号化したユーザ判断信号を送信部284に供給する。   Therefore, in step S154, the user input IF unit 84 determines whether the user's determination has been input (whether one of the OK button 291 or the NG button 292 has been operated). If it is determined that the user's determination is input, the process proceeds to step S155, and the user input IF unit 84 supplies the user determination signal, which is a signal based on the user's determination, to the encoding unit 283, and the encoding unit 283 Encodes this. Thereafter, the encoding unit 283 supplies the encoded user determination signal to the transmission unit 284.

ステップS156において、送信部284は、符号化されたユーザ判断信号(ステップS154の処理により符号化部283により符号化されたユーザ判断信号)を、処理ボックス2に対して送信する。マルチセンサカメラ1と処理ボックス2はこれを受信し(図11のステップS59と図12のステップS109)、上述したように、ユーザ判断信号に基づく処理を実行する。例えば、図17に示されるような呈示に対してNGボタン292のユーザ判断信号が送信されてきた場合、マルチセンサカメラ1は、カメラ201で撮像される範囲(画角)のうち、右側の領域は、特徴量抽出の処理の対象外とする。その結果、以後、図17に示されるような右側の領域294に人が表示されているような画像は、イベントとして送信してこなくなり、図18に示されるような左側の領域293に人が表示されている画像がイベントの画像として呈示される。   In step S156, the transmission unit 284 transmits the encoded user determination signal (the user determination signal encoded by the encoding unit 283 by the process of step S154) to the processing box 2. The multi-sensor camera 1 and the processing box 2 receive this (step S59 in FIG. 11 and step S109 in FIG. 12), and execute the processing based on the user determination signal as described above. For example, when the user determination signal of the NG button 292 is transmitted in response to the presentation as shown in FIG. 17, the multi-sensor camera 1 is the right region in the range (view angle) captured by the camera 201. Are excluded from the feature extraction processing. As a result, an image in which a person is displayed in the right area 294 as shown in FIG. 17 will no longer be transmitted as an event, and a person is displayed in the left area 293 as shown in FIG. The displayed image is presented as an event image.

ステップS154の処理において、ユーザの判断が入力されていないと判定された場合、またはステップS156の処理の後、処理はステップS151に戻り、それ以降の処理が繰り返される。   In the process of step S154, when it is determined that the user's judgment is not input or after the process of step S156, the process returns to step S151, and the subsequent processes are repeated.

なお、マルチセンサカメラ1の処理の変化の例として、例えば、監視システム10の利用を開始した後の所定の期間(ユーザの判断入力の回数が所定の回数を下回る場合)は、カメラ201と赤外線センサ202を常にオンするようにし、所定の期間の経過後(ユーザの判断入力の回数が所定の回数を上回った場合)は、カメラ201は通常オフとし、赤外線センサ202が反応したとき、初めてカメラ201をオンするように制御することもできる。   In addition, as an example of a change in processing of the multi-sensor camera 1, for example, during a predetermined period after the use of the monitoring system 10 is started (when the number of determination inputs by the user is less than the predetermined number), the camera 201 and the infrared ray The sensor 202 is always turned on, and after a predetermined period has elapsed (when the number of determination inputs by the user exceeds a predetermined number), the camera 201 is normally turned off, and the camera is not the first camera when the infrared sensor 202 reacts. It can also be controlled to turn on 201.

また、イベント判定部103の処理に関しても、例えば、監視システム10の利用を開始した後の所定の期間(ユーザの判断入力の回数が所定の回数を下回る場合)は、人(侵入者)の撮像位置(領域)がどこであったとしてもイベントとして出力するようにし、所定の期間の経過後(ユーザの判断入力の回数が所定の回数を上回った場合)は、OKボタン291を操作することでユーザが指定した位置(領域)で人(侵入者)が撮像された場合にのみ、イベントとして出力するようにイベント判定部103の判定パラメータを変更させるようにすることもできる。   In addition, regarding the processing of the event determination unit 103, for example, during a predetermined period after the use of the monitoring system 10 is started (when the number of determination inputs by the user is less than the predetermined number), an image of a person (intruder) is captured. An event is output wherever the position (area) is, and after a predetermined period has elapsed (when the number of determination inputs by the user exceeds a predetermined number), the user can operate the OK button 291 to operate the user. It is also possible to change the determination parameter of the event determination unit 103 so that an event is output only when a person (intruder) is imaged at the position (area) specified by.

以上の処理により、ユーザの判断に基づいて、動作するセンサを切り換え、さらに、ユーザの判断の繰り返しにより、マルチセンサカメラ1における処理を変化させることにより、ユーザが意図するイベントのみを検知および通知させるようにすることができ、かつ、必要なセンサ、信号処理等だけが動作するため、柔軟にイベントを検出および通知し、無駄な消費電力を抑えることができる。マルチセンサカメラ1は、バッテリ28により駆動されるので、できるだけ電力消費を少なくするために、特徴量抽出部102、イベント判定部103、および制御部108の1つ以上を、処理ボックス2に収容するようにするのが好ましい。   By the above processing, the sensor to be operated is switched based on the user's judgment, and further, the processing in the multi-sensor camera 1 is changed by repeating the user's judgment, so that only the event intended by the user is detected and notified. Since only necessary sensors, signal processing, and the like operate, it is possible to detect and notify an event flexibly, and to reduce wasteful power consumption. Since the multi-sensor camera 1 is driven by the battery 28, one or more of the feature amount extraction unit 102, the event determination unit 103, and the control unit 108 are accommodated in the processing box 2 in order to reduce power consumption as much as possible. It is preferable to do so.

また、マルチセンサカメラ1の消費電力を抑えることができ、さらに小型化することができるため、様々な場所に手軽に設置できる。   Moreover, since the power consumption of the multi-sensor camera 1 can be suppressed and the size can be further reduced, the multi-sensor camera 1 can be easily installed in various places.

なお、以上の例は、監視システム10を実現する一例であり、他にも、多数のシステム構成が考えられる。以下にその例を示す。   The above example is an example for realizing the monitoring system 10, and many other system configurations are conceivable. An example is shown below.

例えば、使用するセンサは、カメラ、マイクロホン、赤外線センサに限らず、他のセンサを搭載することができる。また、検出するイベントも、上述した例に限られるものではない。   For example, the sensor to be used is not limited to a camera, a microphone, and an infrared sensor, and other sensors can be mounted. Further, the event to be detected is not limited to the above-described example.

また、例えば、マルチセンサカメラ1と処理ボックス2の間の通信は、無線通信に限られるものではなく、有線による通信であってもよい。   Further, for example, communication between the multi-sensor camera 1 and the processing box 2 is not limited to wireless communication, and may be wired communication.

また、マルチセンサカメラ1は、1台ではなく、複数設けることも可能である。   Also, a plurality of multi-sensor cameras 1 can be provided instead of one.

さらに、呈示部3は、1つではなく、複数設けることも可能である。   Furthermore, it is possible to provide a plurality of the presenting units 3 instead of one.

また、処理ボックス2は、呈示部3と別の筐体とせず、一体型とすることもできる。   In addition, the processing box 2 can be an integral type, not a separate housing from the presenting unit 3.

さらに、リモートコントローラ4にリモコン呈示部83を設けずに、呈示部3のみの呈示としてもよい。   Furthermore, the remote controller 4 may not be provided with the remote controller presenting unit 83 and only the presenting unit 3 may be presented.

また、リモートコントローラ4にイベントを呈示するのではなく、処理ボックス2にイベントの呈示部およびユーザの判断を入力するための入力IF部を設けることもできる。   Further, instead of presenting an event to the remote controller 4, an event presenting section and an input IF section for inputting user judgment can be provided in the processing box 2.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどの、記録媒体からインストールされる。この場合、上述した処理は、図19に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. It can be installed from a recording medium such as a general-purpose personal computer. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図19において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   In FIG. 19, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行なう。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), an output unit 507 including a speaker, a hard disk, and the like. A communication unit 509 including a storage unit 508, a modem, a terminal adapter, and the like is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is also connected to the input / output interface 505 as necessary, and a removable medium 521 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed in a general-purpose personal computer from a network or a recording medium.

この記録媒体は、図19に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 19, this recording medium is not only composed of a package medium composed of a removable medium 521 on which a program is recorded, which is distributed to provide a program to a user, separately from the computer. These are configured by a hard disk including a ROM 502 storing a program and a storage unit 508 provided to the user in a state of being pre-installed in the apparatus main body.

なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明を適用した監視システムの構成例を示す図である。It is a figure which shows the structural example of the monitoring system to which this invention is applied. 図1のマルチセンサカメラの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the multi sensor camera of FIG. 図1の処理ボックスの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the processing box of FIG. 図1のリモートコントローラの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the remote controller of FIG. 図1の監視システムの原理的構成を示すブロック図である。It is a block diagram which shows the fundamental structure of the monitoring system of FIG. 図5の監視システムにより実行されるイベント検出処理を説明するフローチャートである。It is a flowchart explaining the event detection process performed by the monitoring system of FIG. 図1のマルチセンサカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the multi sensor camera of FIG. 図1の処理ボックスの構成例を示すブロック図である。It is a block diagram which shows the structural example of the process box of FIG. 図1のリモートコントローラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the remote controller of FIG. 図7のマルチセンサカメラにおける処理を説明するフローチャートである。It is a flowchart explaining the process in the multi sensor camera of FIG. 図7のマルチセンサカメラにおける処理を説明するフローチャートである。It is a flowchart explaining the process in the multi sensor camera of FIG. 図8の処理ボックスにおける処理を説明するフローチャートである。It is a flowchart explaining the process in the process box of FIG. 図8の処理ボックスにおける処理を説明するフローチャートである。It is a flowchart explaining the process in the process box of FIG. 図9のリモートコントローラにおける処理を説明するフローチャートである。10 is a flowchart for explaining processing in the remote controller of FIG. 9. 図12のステップS104の処理における呈示例を示す図である。It is a figure which shows the example of presentation in the process of step S104 of FIG. 図12のステップS104の処理における呈示例を示す図である。It is a figure which shows the example of presentation in the process of step S104 of FIG. 図14のステップS153の処理における呈示例を示す図である。It is a figure which shows the example of a presentation in the process of step S153 of FIG. 図14のステップS153の処理における呈示例を示す図である。It is a figure which shows the example of a presentation in the process of step S153 of FIG. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 マルチセンサカメラ, 2 処理ボックス, 3 呈示部, 4 リモートコントローラ, 10 監視システム, 83 呈示部, 84 ユーザ入力IF部, 101 センサ, 102 特徴量抽出部, 103 イベント判定部, 104 呈示データ構築部, 108 制御部, 121 パラメータ制御部, 122 信号処理制御部, 123 電源制御部, 291 OKボタン, 292 NGボタン   DESCRIPTION OF SYMBOLS 1 Multi-sensor camera, 2 Processing box, 3 Presentation part, 4 Remote controller, 10 Monitoring system, 83 Presentation part, 84 User input IF part, 101 Sensor, 102 Feature quantity extraction part, 103 Event determination part, 104 Presentation data construction part , 108 control unit, 121 parameter control unit, 122 signal processing control unit, 123 power control unit, 291 OK button, 292 NG button

Claims (13)

センサデータに基づく監視処理を実行する情報処理システムにおいて、
監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサ手段と、
前記センサ手段により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算手段と、
前記特徴量計算手段により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定手段と、
前記イベント判定手段により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成手段と、
前記呈示データ作成手段により作成された前記呈示データに基づく呈示を行なう呈示手段と、
前記呈示手段により呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得手段と、
前記入力取得手段により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御手段と
を備えることを特徴とする情報処理システム。
In an information processing system that executes monitoring processing based on sensor data,
Sensor means for obtaining sensor data output by a sensor for detecting a state of an area to be monitored ;
Feature quantity calculating means for calculating a feature quantity obtained by a predetermined calculation for the sensor data acquired by the sensor means;
By comparing the characteristic amount calculated by the feature quantity calculating means and determination parameter and determining event determination means for determining whether or not an event has occurred,
When the event determination means determines that the event has occurred, presentation data creation means for creating presentation data including event data for notifying the event;
Presenting means for presenting based on the presenting data created by the presenting data creating means;
An input acquisition means for acquiring a user input of the determination whether the future to present a more presented by said event to said presentation means,
Based on the judgment input from the user acquired by the input acquisition means , the change in the calculation of the feature amount or the occurrence of the event is easily detected or the occurrence of the event is difficult to detect An information processing system comprising: control means for controlling update of the determination parameter .
前記センサには、カメラを含み、
前記イベント判定手段は、前記カメラにより撮影された画像を複数の領域に分割した領域単位で、前記特徴量を判定パラメータと比較することにより人を検出し、所定の領域に人が検出された場合、前記イベントが発生したと判定し、
前記制御手段は、前記ユーザの判断の入力が前記イベントを今後呈示しなくてよいことを示している場合、それ以降前記所定の領域で人が撮影されても前記イベントが発生したと判定しないように前記特徴量の計算の変更を制御する
ことを特徴とする請求項1に記載の情報処理システム。
The sensor includes a camera,
The event determination means detects a person by comparing the feature amount with a determination parameter in a region unit obtained by dividing an image captured by the camera into a plurality of regions, and a person is detected in a predetermined region , Determine that the event has occurred,
The control means does not determine that the event has occurred even if a person is photographed in the predetermined area after that when the input of the user's judgment indicates that the event does not have to be presented in the future The information processing system according to claim 1 , wherein a change in calculation of the feature amount is controlled .
前記制御手段は、前記ユーザの判断の入力が前記イベントを今後呈示しなくてよいことを示している場合、前記特徴量の計算を中止させる
ことを特徴とする請求項1に記載の情報処理システム。
2. The information processing system according to claim 1, wherein the control unit stops the calculation of the feature amount when the input of the user's judgment indicates that the event does not have to be presented in the future. .
前記センサデータは、画像のデータであって、
前記特徴量抽出手段は、前記画像のフレーム間差分、前記特徴量として計算する
ことを特徴とする請求項1に記載の情報処理システム。
The sensor data is image data,
The information processing system according to claim 1 wherein the feature quantity extraction means, the difference between frames of the image, and calculates as the feature quantity.
前記呈示データ作成手段は、前記イベントを今後も呈示するか否かについてのユーザの判断の入力を受け付けるリモートコントローラに前記イベントを通知するための前記イベントデータで構成されるリモコン呈示データをさらに作成する
ことを特徴とする請求項1に記載の情報処理システム。
The presenting data creating means further creates remote control presenting data composed of the event data for notifying a remote controller that receives an input of a user's judgment as to whether or not to present the event in the future. The information processing system according to claim 1.
前記呈示データ作成手段により作成された前記リモコン呈示データに基づく前記イベントの呈示を行なうリモコン呈示手段を前記リモートコントローラにさらに備える
ことを特徴とする請求項に記載の情報処理システム。
The information processing system according to claim 5, further comprising a remote control presentation means for presenting the event based on the remote presentation data generated by the presentation data creating means to the remote controller.
前記センサが複数種類存在し、
前記制御手段は、さらに、前記イベントを今後呈示しないとユーザが判断したことにより検出が不要な前記センサの電源をオンまたはオフする制御を実行する
ことを特徴とする請求項1に記載の情報処理システム。
There are multiple types of sensors,
2. The information processing according to claim 1, wherein the control unit further performs control to turn on or off the power of the sensor that does not need to be detected when the user determines that the event will not be presented in the future. system.
複数の前記センサは、カメラ、マイクロホン、または赤外線センサのいずれかを含む
ことを特徴とする請求項に記載の情報処理システム。
The information processing system according to claim 7 , wherein the plurality of sensors include any one of a camera, a microphone, and an infrared sensor.
前記制御手段は、時間の経過、または、前記センサデータの内容に応じて、前記センサの電源をオンまたはオフする制御も実行する
ことを特徴とする請求項に記載の情報処理システム。
The information processing system according to claim 7 , wherein the control unit also executes control to turn on or off the power of the sensor according to the passage of time or the content of the sensor data .
前記呈示データ作成手段は、前記イベント判定手段により前記イベントが発生していないと判定された場合、テレビジョン放送信号を前記呈示データとし、前記イベント判定手段により前記イベントが発生したと判定された場合、テレビジョン放送信号の一部に前記イベントデータを挿入して前記呈示データを作成する
ことを特徴とする請求項1に記載の情報処理システム。
When the event determining unit determines that the event has not occurred, the presenting data creating unit determines the television broadcasting signal as the presenting data and determines that the event has occurred by the event determining unit. 2. The information processing system according to claim 1, wherein the presentation data is created by inserting the event data into a part of a television broadcast signal .
センサデータに基づく監視処理を実行する情報処理システムの情報処理方法において、
監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサステップと、
前記センサステップの処理により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算ステップと、
前記特徴量計算ステップの処理により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定ステップと、
前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成ステップと、
前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップと、
前記呈示制御ステップにより呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得ステップと、
前記入力取得ステップの処理により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御ステップと
を含むことを特徴とする情報処理方法。
In an information processing method of an information processing system that executes monitoring processing based on sensor data,
A sensor step for acquiring sensor data output by a sensor for detecting a state of an area to be monitored ;
A feature amount calculating step for calculating a feature amount obtained by a predetermined calculation for the sensor data acquired by the sensor step processing;
An event determination step for determining whether an event has occurred by comparing the feature amount calculated by the processing of the feature amount calculation step with a determination parameter;
When it is determined that the event has occurred by the process of the event determination step, a presentation data creation step of creating presentation data including event data for notifying the event;
A presentation step for controlling presentation based on the presentation data created by the processing of the presentation data creation step;
An input acquisition step of acquiring an input of a user's judgment as to whether or not to present the event presented by the presentation control step in the future ;
Based on the determination input from the user acquired by the process of the input acquisition step, the feature amount calculation is performed so that the occurrence of the event is easily detected or the occurrence of the event is difficult to detect. A control step of controlling change or update of the determination parameter .
センサデータに基づく監視処理を実行するプログラムであって、
監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサステップと、
前記センサステップの処理により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算ステップと、
前記特徴量計算ステップの処理により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定ステップと、
前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成ステップと、
前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップと、
前記呈示制御ステップにより呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得ステップと、
前記入力取得ステップの処理により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御ステップと
を含むコンピュータが読み取り可能なプログラムが記録されていることを特徴とする記録媒体。
A program for executing monitoring processing based on sensor data,
A sensor step for acquiring sensor data output by a sensor for detecting a state of an area to be monitored ;
A feature amount calculating step for calculating a feature amount obtained by a predetermined calculation for the sensor data acquired by the sensor step processing;
An event determination step for determining whether an event has occurred by comparing the feature amount calculated by the processing of the feature amount calculation step with a determination parameter;
When it is determined that the event has occurred by the process of the event determination step, a presentation data creation step of creating presentation data including event data for notifying the event;
A presentation step for controlling presentation based on the presentation data created by the processing of the presentation data creation step;
An input acquisition step of acquiring an input of a user's judgment as to whether or not to present the event presented by the presentation control step in the future ;
Based on the determination input from the user acquired by the process of the input acquisition step, the feature amount calculation is performed so that the occurrence of the event is easily detected or the occurrence of the event is difficult to detect. A recording medium on which is recorded a computer-readable program including a control step for controlling change or update of the determination parameter .
センサデータに基づく監視処理を実行するプログラムであって、
監視したい領域の状態を検出するセンサが出力するセンサデータを取得するセンサステップと、
前記センサステップの処理により取得された前記センサデータに対して予め決められた計算により求められる特徴量を計算する特徴量計算ステップと、
前記特徴量計算ステップの処理により計算された前記特徴量判定パラメータと比較することにより、イベントが発生したか否かを判定するイベント判定ステップと、
前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成ステップと、
前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップと、
前記呈示制御ステップにより呈示された前記イベントを今後も呈示するか否かについてのユーザの判断の入力を取得する入力取得ステップと、
前記入力取得ステップの処理により取得されたユーザからの判断の入力に基づいて、前記イベントの発生が検出され易いように、または、前記イベントの発生が検出され難いように、前記特徴量の計算の変更または前記判定パラメータの更新を制御する制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program for executing monitoring processing based on sensor data,
A sensor step for acquiring sensor data output by a sensor for detecting a state of an area to be monitored ;
A feature amount calculating step for calculating a feature amount obtained by a predetermined calculation for the sensor data acquired by the sensor step processing;
An event determination step for determining whether an event has occurred by comparing the feature amount calculated by the processing of the feature amount calculation step with a determination parameter;
When it is determined that the event has occurred by the process of the event determination step, a presentation data creation step of creating presentation data including event data for notifying the event;
A presentation step for controlling presentation based on the presentation data created by the processing of the presentation data creation step;
An input acquisition step of acquiring an input of a user's judgment as to whether or not to present the event presented by the presentation control step in the future ;
Based on the determination input from the user acquired by the process of the input acquisition step, the feature amount calculation is performed so that the occurrence of the event is easily detected or the occurrence of the event is difficult to detect. A program for causing a computer to execute a control step for controlling change or update of the determination parameter .
JP2006121572A 2006-04-26 2006-04-26 Information processing system and method, recording medium, and program Expired - Fee Related JP4403418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006121572A JP4403418B2 (en) 2006-04-26 2006-04-26 Information processing system and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006121572A JP4403418B2 (en) 2006-04-26 2006-04-26 Information processing system and method, recording medium, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002303795A Division JP3820586B2 (en) 2002-10-18 2002-10-18 Information processing system and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2006203953A JP2006203953A (en) 2006-08-03
JP4403418B2 true JP4403418B2 (en) 2010-01-27

Family

ID=36961466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006121572A Expired - Fee Related JP4403418B2 (en) 2006-04-26 2006-04-26 Information processing system and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4403418B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9049663B2 (en) * 2010-12-10 2015-06-02 Qualcomm Incorporated Processing involving multiple sensors

Also Published As

Publication number Publication date
JP2006203953A (en) 2006-08-03

Similar Documents

Publication Publication Date Title
US11831940B2 (en) Systems, methods and apparatus for interacting with a security system using a television remote control
KR101589597B1 (en) Broadcasting signal receiving apparatus remote controller and pairing method thereof
US20060064732A1 (en) Adapter apparatus and network camera control method
KR20140072688A (en) Display apparatus and method of controlling thereof
JP2008199514A (en) Image display device
JP3820586B2 (en) Information processing system and method, recording medium, and program
JP4403418B2 (en) Information processing system and method, recording medium, and program
JP4492582B2 (en) Information processing apparatus and monitoring processing system
US8964121B2 (en) Home audio video display device (AVDD) as sensor monitor
US8669869B2 (en) Method and device for detecting and reporting activity
JP2009003735A (en) Security system
US20200244475A1 (en) Notification control apparatus, detection apparatus, notification control system, notification control method, and detection method
TWI527000B (en) Infrared contral system and operation method thereof
US9473728B2 (en) Home audio video display device (AVDD) as sensor monitor
JP4406821B2 (en) Monitoring system and method, information processing apparatus, recording medium, and program
JP6173141B2 (en) Wireless communication system and wireless transmitter
KR102040939B1 (en) Surveillance system and operation method thereof
JP4438344B2 (en) Monitoring system and method, information processing apparatus and method, recording medium, and program
JP2008199510A (en) Television and information display device
KR101068772B1 (en) Monitoring system, camera and display
JP4605429B2 (en) Monitoring system, information processing apparatus and method, recording medium, and program
KR100687921B1 (en) Electronic Equipment
JP2005038195A (en) Monitoring system and method, information processing device and method, recording medium, and program
JP2006171996A (en) Power source controller with monitoring function, electric equipment with this controller, and electric equipment system
JP2005063296A (en) Controller for video output device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4403418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees