JP3820586B2 - Information processing system and method, recording medium, and program - Google Patents

Information processing system and method, recording medium, and program Download PDF

Info

Publication number
JP3820586B2
JP3820586B2 JP2002303795A JP2002303795A JP3820586B2 JP 3820586 B2 JP3820586 B2 JP 3820586B2 JP 2002303795 A JP2002303795 A JP 2002303795A JP 2002303795 A JP2002303795 A JP 2002303795A JP 3820586 B2 JP3820586 B2 JP 3820586B2
Authority
JP
Japan
Prior art keywords
event
data
unit
presentation
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002303795A
Other languages
Japanese (ja)
Other versions
JP2004140623A (en
Inventor
哲二郎 近藤
小林  直樹
泰弘 藤森
康昭 高橋
浩二 太田
直己 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2002303795A priority Critical patent/JP3820586B2/en
Application filed by Sony Corp filed Critical Sony Corp
Priority to US10/681,242 priority patent/US7602413B2/en
Publication of JP2004140623A publication Critical patent/JP2004140623A/en
Application granted granted Critical
Publication of JP3820586B2 publication Critical patent/JP3820586B2/en
Priority to US11/763,956 priority patent/US8072491B2/en
Priority to US11/763,931 priority patent/US7830410B2/en
Priority to US11/763,664 priority patent/US7840284B2/en
Priority to US11/847,642 priority patent/US7605841B2/en
Priority to US12/642,311 priority patent/US8803969B2/en
Priority to US14/319,718 priority patent/US9532014B2/en
Priority to US14/319,664 priority patent/US9729836B2/en
Priority to US14/319,842 priority patent/US9648288B2/en
Priority to US15/619,137 priority patent/US10356370B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理システムおよび方法記録媒体、並びにプログラムに関し、特に、柔軟にイベントを検知および通知し、消費電力を抑えることができるようにした情報処理システムおよび方法記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
従来、ホームセキュリティシステムとして、撮像装置から送信される監視画像を表示するモニタTV(Television)を見ることにより、センサ情報を知る手法が提案されている(例えば、特許文献1参照)。
【0003】
また、赤外線センサと画像センサが組み合わされた監視装置が、人体の有無および画策の有無を判定することにより、監視領域内に進入した人体を検出する手法が提案されている(例えば、特許文献2参照)。
【0004】
これらの特許文献1および特許文献2に記載の発明においては、主に、特定の場所または特定の異常(イベント)が検出される。
【0005】
【特許文献1】
特開平8−124078号公報
【特許文献2】
特開2000−339554号公報
【0006】
【発明が解決しようとする課題】
しかしながら、これらの特許文献1および特許文献2に記載されている発明では、設置の際の調整が煩わしく、さらに、一度設置すると、別の場所にセンサ(撮像装置または監視装置)を移動することが困難であるという課題があった。
【0007】
また、従来使用されている無線カメラは、バッテリ駆動により、常時、画像および音声等を送信し続ける為、バッテリが短時間しか持たないという課題があった。
【0008】
本発明はこのような状況に鑑みてなされたものであり、柔軟にイベントを検出および通知し、消費電力を抑えることができるようにするものである。
【0009】
【課題を解決するための手段】
本発明の情報処理システムは、センサデータを取得するセンサ手段と、センサ手段により取得されたセンサデータに基づいて、物体の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定手段と、イベント判定手段によりイベントが発生したと判定された場合、イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成手段と、呈示データ作成手段により作成された呈示データに基づく呈示を行なう呈示手段を備え、呈示データ作成手段は、呈示データ作成手段を制御するリモートコントローラにイベントを通知するためのイベントデータで構成されるリモコン呈示データをさらに作成することを特徴とする。
【0011】
前記呈示データ作成手段により作成されたリモコン呈示データを呈示するリモコン呈示手段をさらに備えるようにすることができる。
【0014】
前記呈示データ作成手段は、イベント判定手段によりイベントが発生していないと判定された場合、所定の信号に基づくデータを呈示データとするようにすることができる。
【0018】
前記センサ手段は、複数のセンサにより複数のセンサデータを取得するように構成され、センサ手段には、他の情報処理装置から送信されてくる、ユーザの指令に基づく判断信号に基づいて、複数のセンサをオンまたはオフさせることができる。
【0019】
前記呈示データ作成手段は、テレビジョン放送に基づく信号にイベントデータを挿入して呈示データを作成するようにすることができる。
【0020】
前記センサ手段は、カメラ、マイクロホン、または赤外線センサのいずれかを含むようにすることができる。
【0021】
本発明情報処理方法は、センサデータを取得するセンサステップと、センサステップの処理により取得されたセンサデータに基づいて、物体の特徴量を抽出する特徴量抽出ステップと、特徴量抽出ステップの処理により抽出された特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定ステップと、イベント判定ステップの処理によりイベントが発生したと判定された場合、イベントを通知するためのイベントデータを含む呈示データを作成するとともに、呈示データの作成を制御するリモートコントローラにイベントを通知するためのイベントデータで構成されるリモコン呈示データを作成する呈示データ作成ステップと、呈示データ作成ステップの処理により作成された呈示データに基づく呈示を制御する呈示ステップを含むことを特徴とする。
前記センサデータは、複数のセンサによって出力されるデータであり、他の情報処理装置から送信されてくる、ユーザの指令に基づく判断信号に基づいて、複数のセンサをオンまたはオフするセンサ制御ステップをさらに含むようにさせることができる。
【0022】
本発明記録媒体に記録されているプログラムは、センサデータに基づいて、物体の特徴量を抽出する特徴量抽出ステップと、特徴量抽出ステップの処理により抽出された特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定ステップと、イベント判定ステップの処理によりイベントが発生したと判定された場合、イベントを通知するためのイベントデータを含む呈示データを作成するとともに、呈示データの作成を制御するリモートコントローラにイベントを通知するためのイベントデータで構成されるリモコン呈示データを作成する呈示データ作成ステップを含むことを特徴とする。
【0023】
本発明プログラムは、センサデータに基づいて、物体の特徴量を抽出する特徴量抽出ステップと、特徴量抽出ステップの処理により抽出された特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定ステップと、イベント判定ステップの処理によりイベントが発生したと判定された場合、イベントを通知するためのイベントデータを含む呈示データを作成するとともに、呈示データの作成を制御するリモートコントローラにイベントを通知するためのイベントデータで構成されるリモコン呈示データを作成する呈示データ作成ステップをコンピュータに実行させることを特徴とする。
【0043】
本発明においては、センサデータに基づいて、物体の特徴量が抽出され、特徴量と判定パラメータに基づいて、イベントが発生したか否かが判定され、イベントが発生した場合、イベントデータを含む呈示データが作成され、呈示が行なわれる。また、呈示データの作成を制御するリモートコントローラにイベントを通知するためのイベントデータで構築されるリモコン呈示データも作成される。
【0047】
【発明の実施の形態】
図1は、本発明を適用した監視システム10の構成例を表している。この構成例においては、図中左側の監視領域側にマルチセンサカメラ1が備えられており、図中右側の通知・呈示側に、処理ボックス2、呈示部3、および、処理ボックス2を遠隔操作するためのリモートコントローラ4が備えられている。マルチセンサカメラ1と処理ボックス2は、無線通信を行なう。
【0048】
マルチセンサカメラ1には、複数のセンサが設けられており、各センサは、バッテリにより駆動される。また、各センサは、イベントを監視したい領域(必要な場所)に設置されている。イベントが発生した場合、処理ボックス2は、呈示画像および音声を構築し、呈示部3およびリモートコントローラ4に通知し、呈示させる。呈示部3は、例えば、一般のテレビジョン受像機とされる。この場合、呈示部3は、イベントが発生していない場合(通常)、一般の視聴信号(放送信号に基づく映像)を表示し、イベントが発生した場合、一般の視聴信号の一部分にイベント画像が挿入されたピクチャインピクチャの画像を表示する。なお、呈示部3は、テレビジョン受像機に限定されるものではなく、専用のモニタでもよい。また、表示される画像は、ピクチャインピクチャの画像ではなく、画面全体の画像としてもよい。
【0049】
ユーザは、呈示されたイベントに対して、判断を行ない、判断の結果に基づいて、リモートコントローラ4から指令を入力することができる。例えば、イベントを今後も知らせて欲しいときは、そのことを、OKボタン(後述する図9のOKボタン291)を操作して指示することができる。このユーザからの判断の入力に基づいて、処理ボックス2により検出されるイベントが時間と共に変化し、ユーザが監視システム10を使う度にユーザが意図するイベントのみが検出され、通知されるようになる。
【0050】
マルチセンサカメラ1に搭載されている複数のセンサおよび信号処理部(図示せず)は必要な時に、必要なもののみが動作するため、無駄な消費電力を抑えることができる。
【0051】
図2は、図1のマルチセンサカメラ1の機能的構成を示すブロック図である。
【0052】
マルチセンサカメラ1には、カメラ21、マイクロホン22、赤外線センサ23、その他のセンサ24、信号処理部25、送信部26、受信部27、およびバッテリ28が設けられている。
【0053】
信号処理部25は、赤外線センサ23、その他のセンサ24など、複数のセンサから得られるデータに基づいて、イベントを検出し、イベントが発生した場合、イベント呈示に必要なデータを、送信部26を介して処理ボックス2に送信する(処理ボックス2にイベントを通知する)。その他のセンサ24は、例えば、明るさを検出するフォトセンサである場合、部屋の電気をつけたことを検知し、また、例えば、マイクロ波センサである場合、動いている物体の距離および動きを検出する。バッテリ28は、マルチセンサカメラ1の各部に対して必要な電力を供給している。
【0054】
受信部27は、イベント通知に対応して処理ボックス2から送信されてくるユーザの判断信号、センサ制御信号、または、信号処理制御信号を受信し、信号処理部25に供給する。信号処理部25は、これらの信号に基づく処理を実行する。マルチセンサカメラ1がユーザ判断入力を取得することにより、イベント検出および呈示に必要なセンサ、信号処理部25、送信部26、および受信部27のみを動作させることができるため、マルチセンサカメラ1の消費電力を抑えることができる。
【0055】
また、このマルチセンサカメラ1は、小型、かつ、バッテリ駆動であり、さらに、無線通信機能を有しているため、大きなスペースを必要とせず、また、電源供給のための配線処理が不要なため、家庭内の様々な場所に、設置することができる。さらに、複数のセンサを搭載しているため、家庭内における様々なイベントを検知することができる。
【0056】
図3は、図1の処理ボックス2の機能的構成を示すブロック図である。
【0057】
受信部51は、マルチセンサカメラ1の送信部26から無線(電波)で送信された信号を受信し、信号処理部52に供給する。信号処理部52は、一般視聴信号(テレビジョン放送信号)を受信するとともに、受信部51から供給された信号に基づく処理または呈示画像の構築を行なう。イベントが発生した場合、信号処理部52は、呈示部3への呈示データを構築し、呈示部3に出力するとともに、リモートコントローラ4へのリモコン呈示データを構築し、送信部53を介して、無線(赤外線または電波)でリモートコントローラ4に送信する。
【0058】
受信部54は、リモートコントローラ4から無線(赤外線または電波)で送信されたユーザの判断に基づく信号(ユーザ判断信号)を受信し、これを信号処理部52に供給する。信号処理部52は、このユーザ判断信号に基づく処理を実行するとともに、必要なデータを、送信部55を介して、マルチセンサカメラ1に無線(電波)で送信する。
【0059】
図4は、図1のリモートコントローラ4の機能的構成を示すブロック図である。
【0060】
受信部81は、処理ボックス2の送信部53から無線(赤外線または電波)で送信された信号(例えば、リモコン呈示データ)を受信し、信号処理部82に供給する。信号処理部82は、取得した信号の復号または符号化など、信号に基づく処理を実行する。
【0061】
リモコン呈示部83は、信号処理部82から送信された信号に基づく画像(文字、記号などを含む)を呈示する。ユーザ入力IF(インターフェース)部84は、イベントに対するユーザからの判断に基づく入力を受け付け、入力に基づく信号を信号処理部82に供給する。
【0062】
イベントが発生した場合、受信部81は、処理ボックス2の送信部53から送信されてくるリモコン呈示データを受信し、信号処理部82は、この呈示データに基づく画像をリモコン呈示部83に呈示させる。ユーザにより、ユーザ入力IF部84に判断が入力されると、ユーザ判断信号を信号処理部82に供給する。信号処理部82は、ユーザ判断信号を、送信部85から、無線(赤外線または電波)で処理ボックス2に送信する。
【0063】
ユーザによる、例えば、「今後も知らせて欲しいイベントである」、または、「今後知らせないでよいイベントである」などの判断を入力することができるように、リモートコントローラ4上に2つのボタン(例えば、後述する図9のOKボタン291とNGボタン292)が設けられる。マルチセンサカメラ1と処理ボックス2は、このユーザからの判断の入力に基づいて、処理を変化させる。
【0064】
図2乃至図4のマルチセンサカメラ1、処理ボックス2、および、リモートコントローラ4により構成される図1の監視システム10の主要部を接続して得られる原理的構成は、図5に示されるようになる。ただし、無線による通信路も有線の通信路として示されている。
【0065】
図5の例における、複数のセンサ101a乃至センサ101nからなるセンサ101は、図2のマルチセンサカメラ1に対応させ、特徴量抽出部102、イベント判定部103、呈示データ構築部104、並びに、パラメータ制御部121、信号処理制御部122、および電源制御部123により構成される制御部108は、図3の処理ボックス2に対応させ、リモコン呈示部83およびユーザ入力IF部84は、図4のリモートコントローラ4に対応させることができる。ただし、この対応関係は任意であり、例えば、特徴量抽出部102、イベント判定部103、および制御部108のうちの一部または全部は、マルチセンサカメラ1側の構成として設けることも可能である(この例が、後述する図7に示されている)。
【0066】
次に、図6のフローチャートを参照して、図5の監視システム10により実行される処理を説明する。なお、この処理は、ユーザにより、監視領域における監視を開始するよう指令されたとき、開始される。
【0067】
ステップS1において、特徴量抽出部102は、監視領域に設けられているセンサ101を構成する複数のセンサ101a,101b,・・・,101nのそれぞれからセンサデータを取得する。
【0068】
ステップS2において、特徴量抽出部102は、ステップS1の処理により取得した各種センサデータから各種特徴量を計算する。例えば、画像信号のフレーム間差分を取り、移動物体の位置を表わすフレーム間差分の重心位置が計算される。あるいは、赤外線センサのデータの変化量が算出される。
【0069】
ステップS3において、イベント判定部103は、特徴量抽出部102により計算された各種特徴量を取得する。
【0070】
ステップS4において、イベント判定部103は、取得した各種特徴量に基づいて、イベントが発生したか否か(イベントであるか否か)を判定する。このととき、イベント判定部103は、自分自身に保持されているイベントを判定するための判定パラメータに基づいて、イベントを判定する。このパラメータは、パラメータ制御部121により制御され、更新される。ステップS4において、イベントであると判定された場合、処理はステップS5に進み、イベント判定部103は、イベントが発生したことを表わすイベント発生信号と、イベント通知および呈示に必要なデータを呈示データ構築部104に供給する。
【0071】
ステップS6において、呈示データ構築部104は、特徴量抽出部102からイベント発生信号、イベント通知および呈示に必要なデータを取得し、一般視聴信号(テレビジョン放送信号)の一部にイベント呈示データを挿入した呈示データを作成する。また、呈示データ構築部104は、イベント呈示データにより構成される(一般視聴信号を含まない)リモートコントローラ4用の呈示データ(以下、リモコン呈示データと称する)を作成する。
【0072】
ステップS7において、呈示データ構築部104は、ステップS6の処理により作成した呈示データを呈示部3に出力し、呈示部3に呈示させる。また、呈示データ構築部104は、リモコン呈示データをリモコン呈示部83に出力し、リモコン呈示部83に呈示させる。
【0073】
呈示データは、一般の視聴信号の一部にイベント呈示データを挿入して構成されているため、呈示部3には、ピクチャインピクチャの表示(例えば、後述する図15に示されるような表示)が呈示される。また、リモコン呈示データは、イベント呈示データから構成されているため、リモコン呈示部83には、イベントを表わす表示(例えば、監視している場所の画像)のみが呈示される。
【0074】
ユーザは、リモコン呈示部83に通知および呈示されたイベント(画像および音声)を見て、判断(例えば、いま呈示されているイベントは、今後も知らせて欲しいイベントであるのか、または、今後しらせないでよいイベントであるのかの判断)を入力する。このとき、例えば、判断を入力させるように促す画像を、リモコン呈示部83に、表示させるようにしてもよい。ユーザからの判断が入力されると、ステップS8において、ユーザ入力IF部84は、ユーザからのイベントに対する判断の入力を取得する。ユーザ入力IF部84は、取得したユーザからの判断の入力に基づくユーザ判断信号を、パラメータ制御部121、信号処理制御部122、および電源制御部123により構成される制御部108に供給する。
【0075】
ステップS9において、パラメータ制御部121は、ステップS8の処理により取得したユーザ判断信号に基づいて、イベント判定部103に保持されているイベントを判定するための判定パラメータの更新を行ない、ユーザが意図するイベント検出が行なえるようにする。例えば、基準値以上の明るさが検出された場合、イベント検出信号が発生されるように設定されているとき、その基準値をより明るい基準値、またはより暗い基準値に変更することができる。
【0076】
ステップS10において、信号処理制御部122は、ユーザ判断信号(ステップS8の処理により取得したユーザ判断信号)に基づいて、特徴量抽出部102を制御する。具体的には、不要な特徴量の検出を中止するように制御したり、軽い処理(例えば、少ない数の特徴量を検出する処理)から、必要な場合に重い処理(より多い数の特徴量を検出し、より正確に判定できるようにする処理)に切り換えるなどの制御をする。例えば、後述する図15に示されるような領域322(イベントとして検出して欲しい領域)と領域323(イベントとして検出する必要がない領域)のうち、領域323で人が撮影されたとしても、それを特徴量として検出させないようにすることができる。
【0077】
ステップS11において、電源制御部123は、ユーザ判断信号(ステップS8の処理により取得したユーザ判断信号)に基づいて、センサ101の電源をオンまたはオフするように制御する。具体的には、センサ101a乃至センサ101nのうち、特徴量抽出部102およびイベント判定部103で必要のないセンサの電源はオフするように制御する。これにより無駄なバッテリを消費するのを防ぐことができる。
【0078】
ステップS11の処理の後、処理はステップS1に戻り、同様の処理が繰り返される。
【0079】
一方、ステップS4において、イベント判定部103により、イベントでないと判定された場合、処理はステップS12に進み、呈示データ構築部104は、一般視聴信号(テレビジョン放送信号)をそのまま呈示データとして呈示部3に出力する。呈示部3は、一般視聴信号を呈示する。その後、処理はステップS1に戻り、それ以降の処理が繰り返される。
【0080】
図6の処理により、ユーザは簡易な判断入力を行なうことにより、ユーザが意図するイベントを確実に検出することができ、かつ、必要な時のみ、各センサと処理部を動作するように制御することができるため、無駄な電力を消費することなく、マルチセンサカメラ1の低消費電力化が実現できる。
【0081】
以下に、図7乃至図18を参照して、監視システム(ホームセキュリティシステム)の具体例の1つを示す。
【0082】
この例の場合、使用するセンサは、カメラ201および赤外線センサ202(図7)であり、ユーザは呈示されたイベントに対して「OK(今後もイベントとして検出して欲しい)」または「NG(今後はイベントとして検出しなくてもよい)」を入力する。また、この場合の、マルチセンサカメラ1の構成例は図7に示され、処理ボックス2の構成例は図8に示され、リモートコントローラ4の構成例は図9に示されている。さらに、各機器における処理を説明するフローチャートが図10乃至図14に示され、呈示部3に呈示される画像が図15および図16に示されている。また、リモコン呈示部283に呈示される画像が図17および図18に示されている。図中、図5と対応する部分については、同一の符号を付してあり、その説明は、繰り返しになるので省略する。
【0083】
図7において、カメラ201と赤外線センサ202により取得されるセンサデータは、特徴量抽出部102に供給される。例えば、赤外線センサ202は、常にオンとされ、カメラ201は、電力消費を少なくするために通常はオフとされる(上述したように、制御部108により制御されている)。特徴量抽出部102は、赤外線センサ202により取得されたセンサデータから特徴量を抽出し、イベント判定部103に供給する。
【0084】
イベントが発生したことの通知に使用される通知用データが特徴量抽出部102から符号化部203へ供給され、符号化部203は、これを符号化し、送信部204に供給する。イベントが発生した場合、送信部204は、符号化された通知用データを処理ボックス2へ送信する。また、処理ボックス2から送信されてくるユーザ判断信号は、受信部205により受信され、復号部206により復号された後、制御部108に供給される。制御部108は、上述したように、ユーザ判断信号に基づく処理を実行する。
【0085】
具体的には、制御部108は、図5を参照して説明したように、イベント判定部103を、イベント判定のパラメータを更新するように制御したり、特徴量抽出部102を、画像の特徴量の抽出処理を開始したり、または停止するよう制御したり、カメラ201または赤外線センサ202を、オンまたはオフするよう制御する。
【0086】
符号化部203、送信部204、受信部205、および復号部206も、イベントが発生したときのみ処理を実行させるようにすることで、無駄に電力を消費することなく、マルチセンサカメラ1を動作させることができる。
【0087】
マルチセンサカメラ1の送信部204からイベント通知(通知用データ)が送信されて来た場合、通知用データは、図8の処理ボックス2の受信部241により受信され、復号部242により復号された後、呈示データ構築部104に供給される。呈示データ構築部104は、上述したように、一般視聴信号の一部にイベント信号を重畳した呈示データを作成し、呈示部3へ出力するとともに、イベントデータそのものを、リモコン呈示データとして符号化部243に符号化させ、送信部244に送信させる。マルチセンサカメラ1からイベント通知(通知用データ)が送信されて来ない場合(イベントが発生していない場合)、呈示データ構築部104は、一般視聴信号そのものを呈示データとして呈示部3へ出力し、呈示させる。
【0088】
リモコン呈示データの送信に伴って、リモートコントローラ4から、ユーザ判断信号が送信されてくる。そこで、処理ボックス2の受信部245は、これを受信し、復号部246に復号させる。復号されたユーザ判断信号は、呈示データ構築部104および符号化部247に供給される。呈示データ構築部104は、ユーザ判断信号に基づいて、例えば、ピクチャインピクチャの画像を生成する処理を中止するなどの処理を実行する。符号化部247は、供給されたユーザ判断信号を符号化し、送信部248に送信させる。送信部248により送信されたユーザ判断信号は、マルチセンサカメラ1の受信部205に受信される。
【0089】
処理ボックス2の送信部244からリモコン呈示データが送信されてきた場合、図9のリモートコントローラ4の受信部281は、これを受信し、復号部282に供給する。復号部282は、リモコン呈示データを復号し、復号されたリモコン呈示データに基づく画像をリモコン呈示部83に呈示させる。
【0090】
これに対して、ユーザは、OKボタン291またはNGボタン292を操作することにより、判断(イベントとして検出する(OK)か、しない(NG)か)を入力することができる。
【0091】
ユーザ入力IF84は、OKボタン291またはNGボタン292のうち、いずれか1つが操作されたことを検出し、ユーザ判断信号として符号化部283に供給する。符号化部283は、ユーザ判断信号を符号化し、送信部284に送信させる。送信部284は、ユーザ判断信号を、処理ボックス2の受信部245に送信する。
【0092】
次に、図10乃至図14のフローチャートを参照して、図7のマルチセンサカメラ1、図8の処理ボックス2、および図9のリモートコントローラ4における処理を説明する。
【0093】
最初に、図10と図11のフローチャートを参照して、図7のマルチセンサカメラ1における処理を説明する。なお、この処理は、ユーザにより、監視領域における監視を開始するよう指令されたとき、開始される。
【0094】
ステップS51において、必要であるとされているカメラ201と赤外線センサ202は、それぞれ画像データと検出データをセンサデータとして取得し、特徴量抽出部102に供給する。いまの例の場合、カメラ201と赤外線センサ202が両方とも動作している(必要である)ようにしたが、これに限定されず、例えば、赤外線センサ202のみ、または、カメラ201のみが動作しているものとしてもよい。
【0095】
ステップS52において、特徴量抽出部102は、必要な特徴量を計算する。具体的には、カメラ201が出力した画像データのフレーム間差分、フレーム間差分の重心位置、および赤外線センサ202が出力したセンサデータの変化量等の必要な特徴量を計算する。なお、必要な特徴量は時によって変換する。これは、制御部108により制御されるためである。特徴量抽出部102は、計算した各種特徴量を、イベント判定部103に供給するとともに、通知用データとして符号化部203に供給する。
【0096】
ステップS53において、イベント判定部103は、供給された各種特徴量(ステップS52の処理により計算され、供給された各種特徴量)を取得する。
【0097】
ステップS54において、イベント判定部103は、取得した各種特徴量に基づいて、イベントが発生したか否か(イベントであるか否か)を判定する。このとき、イベント判定部103は、自分自身に保持されているイベントを判定するための判定パラメータに基づいて、イベントを判定する。このパラメータは、制御部108により制御され、更新される。ステップS54において、イベントであると判定された場合、処理はステップS55に進み、イベント判定部103は、イベント発生信号を符号化部203、送信部204、受信部205および復号部206に送信する。符号化部203、送信部204、受信部205および復号部206は、このイベント発生信号が供給されたとき動作状態となる。従って、イベント発生信号が供給されないとき、非動作状態(オフ状態)となっているので、電力が無駄に消費されるのを抑制することができる。
【0098】
ステップS56において、符号化部203は、ステップS52の処理により特徴量抽出部102から送信された通知用データ(イベント通知用データ)を受信し、符号化し、送信部204に供給する。
【0099】
ステップS57において、送信部204は、符号化部203により符号化され、供給された通知用データを処理ボックス2に送信する。
【0100】
処理ボックス2は、この通知用データを受信し(後述する図12のステップS103)、これに対応するユーザ判断信号を送信してくる(後述する図12のステップS112)。
【0101】
そこで、ステップS58において、受信部205は、ユーザ判断信号が送信されてきたか否かを判定する。ユーザ判断信号が送信されてきた場合、処理はステップS59に進み、受信部205は、ユーザ判断信号を受信し、復号部206に供給する。
【0102】
ステップS60において、復号部206は、ユーザ判断信号を復号し、制御部108に供給する。
【0103】
ステップS61において、制御部108は、イベント判定部103のパラメータ変更制御、特徴量抽出部102の信号処理制御、およびセンサの電源制御などの制御を実行する。詳細は、図5と図6を参照して説明したので省略する。
【0104】
ステップS54においてイベントでないと判定された場合、ステップS58においてユーザ判断信号が送信されてこないと判定された場合、または、ステップS61の処理の後、処理はステップS51に戻り、それ以降の処理が繰り返される。
【0105】
次に、図12と図13を参照して、図10と図11のマルチセンサカメラ1の処理に対応する図8の処理ボックス2における処理を説明する。なお、この処理は、ユーザにより呈示部3に対して一般視聴信号(放送番組信号)に対応する画像の呈示または、監視領域における開始を開始するよう指令されたとき、開始される。
【0106】
ステップS101において、受信部241は、イベント通知があるか否かを判定する。具体的には、受信部241は、マルチセンサカメラ1の送信部204から通知用データが送信されてきたか否かを判定する。ステップS101において、イベント通知がされないと判定された場合(通知用データが送信されてこないと判定された場合)、処理はステップS102に進み、呈示データ構築部104は、一般視聴信号をそのまま呈示データとして、呈示部3に出力し、呈示部3に呈示させる。その後、処理はステップS101に戻り、それ以降の処理が繰り返される。
【0107】
ステップS101において、イベント通知があると判定された場合、ステップS103において、受信部241は、通知用データを受信し、復号部242に復号させる。復号部242は、復号した通知用データを呈示データ構築部104に供給する。
【0108】
ステップS104において、呈示データ構築部104は、供給された通知用データを受信し、呈示データを作成する。具体的には、呈示データ構築部104は、一般視聴画像の一部にイベント画像を多重化させることで呈示データを作成する(ピクチャインピクチャとなる画像データを作成する)。その後、呈示データ構築部104は、作成した呈示データを呈示部3に出力し、呈示させる。
【0109】
このとき、呈示部3には、図15または図16に示されるような画像が表示される。図15の例の場合、呈示部3には、一般視聴画面320の一部に、イベント呈示領域321が呈示されている。イベント呈示領域321の、図中、左側の領域322と、右側の領域323のうち、右側の領域323に、カメラ201で撮影された人の画像が表示されている。このイベント呈示に対してユーザは、リモートコントローラ4のOK(今後もイベントとして検出して欲しい)ボタン291、またはNO(今後はイベントとして検出しなくてもよい)ボタン292を操作することで、判断を入力することになる。このユーザ判断信号がリモートコントローラ4から送信されてくる(後述する図14のステップS156)。
【0110】
いま、領域322と領域323のうち、左側の領域322が、ユーザがイベントとして検出して欲しい領域であるとすると、ユーザは、図15に示されているようなイベントの呈示に対して、NOボタン292を操作する。ユーザによりNOボタン292が操作された場合、これに対応するユーザ判断信号が、リモートコントローラ4から送信されてくる。処理ボックス2はこれを受信すると、それをマルチセンサカメラ1に送信する(後述するステップS112)。上述したように、マルチセンサカメラ1の制御部108は、このユーザ判断信号を受信すると、特徴量抽出部102を制御し、カメラ201の画角の右側の領域を特徴量抽出の範囲から除外する(図11のステップS61)。その結果、以後、画角の右側の領域で人が撮影されても、イベント発生信号が発生されず、左側の領域で人が撮影されたとき、イベント通知が行なわれる。これにより、例えば、図16に示されるような呈示が行なわれるようになる。
【0111】
ユーザによりNOボタン292が操作された場合、呈示部3には、一般視聴画像のみが呈示される。すなわち、イベント呈示領域321は表示されない。これによりユーザは無駄なイベントを呈示されることなく、必要な場所だけ、イベント呈示領域321を見ることができる。
【0112】
図12に戻って、ステップS105において、呈示データ構築部104は、リモコン呈示データを作成し、符号化部243に出力する。リモコン呈示データには、一般視聴信号は含まれず、リモコン呈示データは、通知用データそのものから構成されている。リモートコントローラ4は、リモコン呈示データを受信すると、対応する画像を図17または図18に示されるように表示する(後述する図14のステップS153)。
【0113】
ステップS106において、符号化部243は、ステップS105の処理により供給されたリモコン呈示データを符号化し、これを送信部244に供給する。
【0114】
ステップS107において、送信部244は、ステップS106の処理により供給された、符号化されたリモコン呈示データをリモートコントローラ4に送信する。リモートコントローラ4は、これを受信し(後述する図14のステップS151)、呈示した(後述する図14のステップS153)後、ユーザにより入力された判断に基づく信号であるユーザ判断信号を送信してくる(後述する図14のステップS156)。
【0115】
そこで、ステップS108において、受信部245は、ユーザ判断信号が送信されてきたか否かを判定する。ユーザ判断信号が送信されてきたと判定された場合、ステップS109において、受信部245は、ユーザ判断信号を受信し、これを復号部246に供給する。
【0116】
ステップS110において、復号部246は、ステップS109の処理により供給されたユーザ判断信号を復号し、これを呈示データ構築部104に供給するとともに、符号化部247に供給する。
【0117】
ステップS111において、符号化部247は、ステップS110の処理により供給されたユーザ判断信号を符号化し、これを送信部248に供給する。
【0118】
ステップS112において、送信部248は、ステップS111の処理により符号化され、供給されたユーザ判断信号をマルチセンサカメラ1に送信する。マルチセンサカメラ1は、上述したように、ユーザ判断信号に基づく処理を実行する(図11のステップS61)。
【0119】
ステップS113において、呈示データ構築部104は、ステップS110の処理により復号部246により復号されたユーザ判断信号を取得し、ユーザ判断信号に基づく処理を実行する。
【0120】
このとき、上述したように、呈示データ構築部104は、ユーザ判断信号に、呈示データの構築を停止するような信号(例えば、後述する図17のNGボタン292が操作されたとされる信号)が含まれていた場合、イベント画像を含む呈示データの構築を停止するなどの処理を実行する。このとき、呈示部3には、イベント呈示領域321が呈示されない。
【0121】
また、呈示データ構築部104は、ユーザ判断信号に、呈示データの構築を続けるような信号(例えば、後述する図17のOKボタン291が操作されたとされる信号)が含まれていた場合、イベント画像を含む呈示データの構築を続ける処理を実行する。このとき、呈示部3には、図16に示されるようなイベント呈示領域321が呈示される。
【0122】
ステップS102の処理の後、ステップS108においてユーザ判断信号が送信されてこないと判定された場合、またはステップS113の処理の後、処理はステップS101に戻り、それ以降の処理が繰り返される。
【0123】
次に、図14を参照して、図12と図13の処理ボックス2の処理に対応する図9のリモートコントローラ4における処理を説明する。なお、この処理は、処理ボックス2の送信部244により、図12のステップS107の処理が実行されたとき、開始される。
【0124】
ステップS151において、受信部281は、処理ボックス2の送信部244から送信されてきた(図12のステップS107の処理により処理ボックス2の送信部244から送信されてきた)リモコン呈示データを受信し、これを復号部282に供給する。
【0125】
ステップS152において、復号部282は、ステップS151の処理により受信されたリモコン呈示データを復号し、復号したリモコン呈示データをリモコン呈示部83に供給する。
【0126】
ステップS153において、リモコン呈示部83は、受信したリモコン呈示データに基づく画像を呈示する。
【0127】
このとき、リモコン呈示部83には、図17または図18に示されるような画像が表示される。この画像は、上述した図15と図16のイベント呈示領域321の画像と同様の画像である。すなわち、リモコン呈示データには、呈示部3に対して出力される呈示データのうちの、イベント呈示領域321に対応するデータのみが含まれている。
【0128】
図17の例の場合、リモコン呈示部83には、リモコン呈示データに基づくイベントが呈示されている。リモコン呈示部83の図中左側の領域293と右側の領域294のうち、左側の領域293が、ユーザがイベントとして検出して欲しい領域であるとすると、図17に示されるように、右側の領域294に人の画像が表示されている場合、このイベント呈示に対してユーザは、OK(今後もイベントとして検出して欲しい)ボタン291とNO(今後はイベントとして検出しなくてもよい)ボタン292のうち、NOボタン292を操作する。これに対して、図18に示されるように、左側の領域293に人の画像が表示されている場合、ユーザは、OKボタン291を操作する。
【0129】
そこで、ステップS154において、ユーザ入力IF部84は、ユーザの判断が、入力されたか(OKボタン291またはNGボタン292のいずれか1つが操作されたか)否かを判定する。ユーザの判断が入力されたと判定された場合、処理はステップS155に進み、ユーザ入力IF部84は、ユーザの判断に基づく信号であるユーザ判断信号を符号化部283に供給し、符号化部283は、これを符号化する。その後、符号化部283は、符号化したユーザ判断信号を送信部284に供給する。
【0130】
ステップS156において、送信部284は、符号化されたユーザ判断信号(ステップS154の処理により符号化部283により符号化されたユーザ判断信号)を、処理ボックス2に対して送信する。マルチセンサカメラ1と処理ボックス2はこれを受信し(図11のステップS59と図12のステップS109)、上述したように、ユーザ判断信号に基づく処理を実行する。例えば、図17に示されるような呈示に対してNGボタン292のユーザ判断信号が送信されてきた場合、マルチセンサカメラ1は、カメラ201で撮像される範囲(画角)のうち、右側の領域は、特徴量抽出の処理の対象外とする。その結果、以後、図17に示されるような右側の領域294に人が表示されているような画像は、イベントとして送信してこなくなり、図18に示されるような左側の領域293に人が表示されている画像がイベントの画像として呈示される。
【0131】
ステップS154の処理において、ユーザの判断が入力されていないと判定された場合、またはステップS156の処理の後、処理はステップS151に戻り、それ以降の処理が繰り返される。
【0132】
なお、マルチセンサカメラ1の処理の変化の例として、例えば、監視システム10の利用を開始した後の所定の期間(ユーザの判断入力の回数が所定の回数を下回る場合)は、カメラ201と赤外線センサ202を常にオンするようにし、所定の期間の経過後(ユーザの判断入力の回数が所定の回数を上回った場合)は、カメラ201は通常オフとし、赤外線センサ202が反応したとき、初めてカメラ201をオンするように制御することもできる。
【0133】
また、イベント判定部103の処理に関しても、例えば、監視システム10の利用を開始した後の所定の期間(ユーザの判断入力の回数が所定の回数を下回る場合)は、人(侵入者)の撮像位置(領域)がどこであったとしてもイベントとして出力するようにし、所定の期間の経過後(ユーザの判断入力の回数が所定の回数を上回った場合)は、OKボタン291を操作することでユーザが指定した位置(領域)で人(侵入者)が撮像された場合にのみ、イベントとして出力するようにイベント判定部103の判定パラメータを変更させるようにすることもできる。
【0134】
以上の処理により、ユーザの判断に基づいて、動作するセンサを切り換え、さらに、ユーザの判断の繰り返しにより、マルチセンサカメラ1における処理を変化させることにより、ユーザが意図するイベントのみを検知および通知させるようにすることができ、かつ、必要なセンサ、信号処理等だけが動作するため、柔軟にイベントを検出および通知し、無駄な消費電力を抑えることができる。マルチセンサカメラ1は、バッテリ28により駆動されるので、できるだけ電力消費を少なくするために、特徴量抽出部102、イベント判定部103、および制御部108の1つ以上を、処理ボックス2に収容するようにするのが好ましい。
【0135】
また、マルチセンサカメラ1の消費電力を抑えることができ、さらに小型化することができるため、様々な場所に手軽に設置できる。
【0136】
なお、以上の例は、監視システム10を実現する一例であり、他にも、多数のシステム構成が考えられる。以下にその例を示す。
【0137】
例えば、使用するセンサは、カメラ、マイクロホン、赤外線センサに限らず、他のセンサを搭載することができる。また、検出するイベントも、上述した例に限られるものではない。
【0138】
また、例えば、マルチセンサカメラ1と処理ボックス2の間の通信は、無線通信に限られるものではなく、有線による通信であってもよい。
【0139】
また、マルチセンサカメラ1は、1台ではなく、複数設けることも可能である。
【0140】
さらに、呈示部3は、1つではなく、複数設けることも可能である。
【0141】
また、処理ボックス2は、呈示部3と別の筐体とせず、一体型とすることもできる。
【0142】
さらに、リモートコントローラ4にリモコン呈示部83を設けずに、呈示部3のみの呈示としてもよい。
【0143】
また、リモートコントローラ4にイベントを呈示するのではなく、処理ボックス2にイベントの呈示部およびユーザの判断を入力するための入力IF部を設けることもできる。
【0144】
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどの、記録媒体からインストールされる。この場合、上述した処理は、図19に示されるようなパーソナルコンピュータ500により実行される。
【0145】
図19において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0146】
CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。
【0147】
入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行なう。
【0148】
入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。
【0149】
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用の専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0150】
この記録媒体は、図19に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。
【0151】
なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0152】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0153】
【発明の効果】
以上の如く、本発明によれば、イベントを通知することができる。特に、この発明によれば、ユーザの判断の入力に基づいて、柔軟にイベントを検出および通知することができる。また、無駄な消費電力を抑えることができる。
【図面の簡単な説明】
【図1】本発明を適用した監視システムの構成例を示す図である。
【図2】図1のマルチセンサカメラの機能的構成を示すブロック図である。
【図3】図1の処理ボックスの機能的構成を示すブロック図である。
【図4】図1のリモートコントローラの機能的構成を示すブロック図である。
【図5】図1の監視システムの原理的構成を示すブロック図である。
【図6】図5の監視システムにより実行されるイベント検出処理を説明するフローチャートである。
【図7】図1のマルチセンサカメラの構成例を示すブロック図である。
【図8】図1の処理ボックスの構成例を示すブロック図である。
【図9】図1のリモートコントローラの構成例を示すブロック図である。
【図10】図7のマルチセンサカメラにおける処理を説明するフローチャートである。
【図11】図7のマルチセンサカメラにおける処理を説明するフローチャートである。
【図12】図8の処理ボックスにおける処理を説明するフローチャートである。
【図13】図8の処理ボックスにおける処理を説明するフローチャートである。
【図14】図9のリモートコントローラにおける処理を説明するフローチャートである。
【図15】図12のステップS104の処理における呈示例を示す図である。
【図16】図12のステップS104の処理における呈示例を示す図である。
【図17】図14のステップS153の処理における呈示例を示す図である。
【図18】図14のステップS153の処理における呈示例を示す図である。
【図19】パーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
1 マルチセンサカメラ, 2 処理ボックス, 3 呈示部, 4 リモートコントローラ, 10 監視システム, 83 呈示部, 84 ユーザ入力IF部, 101 センサ, 102 特徴量抽出部, 103 イベント判定部, 104 呈示データ構築部, 108 制御部, 121 パラメータ制御部, 122 信号処理制御部, 123 電源制御部, 291 OKボタン, 292 NGボタン
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an information processing system and method.,Information processing system and method relating to recording medium and program, particularly capable of flexibly detecting and notifying events and suppressing power consumption,The present invention relates to a recording medium and a program.
[0002]
[Prior art]
Conventionally, as a home security system, a method of knowing sensor information by viewing a monitor TV (Television) that displays a monitoring image transmitted from an imaging device has been proposed (see, for example, Patent Document 1).
[0003]
In addition, a method has been proposed in which a monitoring device in which an infrared sensor and an image sensor are combined detects a human body that has entered a monitoring area by determining the presence or absence of a human body and the presence or absence of a plan (for example, Patent Document 2). reference).
[0004]
In the inventions described in Patent Document 1 and Patent Document 2, a specific place or a specific abnormality (event) is mainly detected.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 8-124078
[Patent Document 2]
JP 2000-339554 A
[0006]
[Problems to be solved by the invention]
However, in the inventions described in Patent Literature 1 and Patent Literature 2, adjustment at the time of installation is troublesome, and once installed, the sensor (imaging device or monitoring device) may be moved to another location. There was a problem that it was difficult.
[0007]
In addition, the wireless cameras used in the past have a problem that the battery has only a short time because it continuously transmits images and sounds by battery driving.
[0008]
The present invention has been made in view of such a situation, and is intended to flexibly detect and notify an event and suppress power consumption.
[0009]
[Means for Solving the Problems]
  The information processing system according to the present invention includes a sensor unit that acquires sensor data, a feature amount extraction unit that extracts a feature amount of an object based on the sensor data acquired by the sensor unit, and a feature amount extraction unit. An event determination unit that acquires a feature amount and determines whether an event has occurred based on a determination parameter, and event data for notifying an event when the event determination unit determines that an event has occurred Presenting data creating means for creating presenting data including the presenting means for presenting based on the presenting data created by the presenting data creating meansWhenWithThe presentation data creation means further creates remote control presentation data composed of event data for notifying the remote controller that controls the presentation data creation means of the event.It is characterized by that.
[0011]
  Remote control presentation for presenting remote control presentation data created by the presentation data creation meansmeansCan be further provided.
[0014]
The presenting data creating means can make data based on a predetermined signal as presenting data when the event determining means determines that an event has not occurred.
[0018]
  The sensor unit is configured to acquire a plurality of sensor data by a plurality of sensors, and the sensor unit is configured to receive a plurality of sensor data based on a determination signal based on a user command transmitted from another information processing apparatus. The sensor can be turned on or off.
[0019]
The presentation data creation means can create presentation data by inserting event data into a signal based on television broadcasting.
[0020]
The sensor means may include either a camera, a microphone, or an infrared sensor.
[0021]
  The present inventionofThe information processing method is extracted by a sensor step for acquiring sensor data, a feature amount extraction step for extracting a feature amount of an object based on the sensor data acquired by the processing of the sensor step, and a processing of the feature amount extraction step. Event determination step for determining whether or not an event has occurred based on the determination parameter, and notifying the event when it is determined that the event has occurred by the process of the event determination step Create presentation data including event dataIn addition, remote control presentation data composed of event data for notifying the remote controller that controls the creation of the presentation data is created.Presentation data creation step and a presentation step for controlling the presentation based on the presentation data created by the processing of the presentation data creation stepWhenIt is characterized by including.
The sensor data is data output by a plurality of sensors, and includes a sensor control step of turning on or off the plurality of sensors based on a determination signal based on a user command transmitted from another information processing apparatus. Furthermore, it can be made to include.
[0022]
  The present inventionofThe program recorded on the recording medium acquires a feature amount extracted by the feature amount extraction step for extracting the feature amount of the object and the feature amount extraction step based on the sensor data, and based on the determination parameter. An event determination step for determining whether or not an event has occurred, and presentation data including event data for notifying an event when it is determined that an event has occurred by the processing of the event determination stepIn addition, remote control presentation data composed of event data for notifying the remote controller that controls the creation of the presentation data is created.Presentation data creation stepWhenIt is characterized by including.
[0023]
  The present inventionofThe program acquires a feature amount extraction step for extracting the feature amount of the object based on the sensor data, the feature amount extracted by the processing of the feature amount extraction step, and whether or not an event has occurred based on the determination parameter Event determination step for determining whether or not an event has occurred by the processing of the event determination step, presentation data including event data for notifying the event is createdIn addition, remote control presentation data composed of event data for notifying the remote controller that controls the creation of the presentation data is created.Presentation data creation stepWhenIs executed by a computer.
[0043]
  In the present inventionIn this case, the feature amount of the object is extracted based on the sensor data, and it is determined whether or not the event has occurred based on the feature amount and the determination parameter. If the event has occurred, the presentation data including the event data is included. Is created and presented.In addition, remote control presentation data constructed with event data for notifying an event to a remote controller that controls the creation of the presentation data is also created.
[0047]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a configuration example of a monitoring system 10 to which the present invention is applied. In this configuration example, the multi-sensor camera 1 is provided on the left monitoring area side in the figure, and the processing box 2, the presentation unit 3, and the processing box 2 are remotely operated on the notification / presentation side on the right side in the figure. A remote controller 4 is provided. The multi-sensor camera 1 and the processing box 2 perform wireless communication.
[0048]
The multi-sensor camera 1 is provided with a plurality of sensors, and each sensor is driven by a battery. Each sensor is installed in an area (necessary place) where an event is to be monitored. When an event occurs, the processing box 2 constructs a presentation image and sound, notifies the presentation unit 3 and the remote controller 4 to present them. The presenting unit 3 is, for example, a general television receiver. In this case, the presentation unit 3 displays a general viewing signal (video based on a broadcast signal) when an event does not occur (normal), and when an event occurs, an event image is displayed on a part of the general viewing signal. The inserted picture-in-picture image is displayed. The presenting unit 3 is not limited to a television receiver, and may be a dedicated monitor. The displayed image may be an image of the entire screen, not a picture-in-picture image.
[0049]
The user can make a determination on the presented event and can input a command from the remote controller 4 based on the result of the determination. For example, when an event is desired to be notified in the future, this can be instructed by operating an OK button (an OK button 291 in FIG. 9 described later). Based on the judgment input from the user, the event detected by the processing box 2 changes with time, and whenever the user uses the monitoring system 10, only the event intended by the user is detected and notified. .
[0050]
Since a plurality of sensors and a signal processing unit (not shown) mounted on the multi-sensor camera 1 operate only when necessary, wasteful power consumption can be suppressed.
[0051]
FIG. 2 is a block diagram showing a functional configuration of the multi-sensor camera 1 of FIG.
[0052]
The multi-sensor camera 1 includes a camera 21, a microphone 22, an infrared sensor 23, other sensors 24, a signal processing unit 25, a transmission unit 26, a reception unit 27, and a battery 28.
[0053]
The signal processing unit 25 detects an event based on data obtained from a plurality of sensors such as the infrared sensor 23 and other sensors 24. When an event occurs, the signal processing unit 25 sends data necessary for event presentation to the transmission unit 26. To the processing box 2 (notifies the processing box 2 of the event). For example, when the sensor 24 is a photo sensor that detects brightness, it detects that the room has been turned on. When the sensor 24 is a microwave sensor, for example, the distance and movement of a moving object are detected. To detect. The battery 28 supplies necessary power to each part of the multi-sensor camera 1.
[0054]
The receiving unit 27 receives a user determination signal, a sensor control signal, or a signal processing control signal transmitted from the processing box 2 in response to the event notification, and supplies the signal to the signal processing unit 25. The signal processing unit 25 executes processing based on these signals. Since the multi-sensor camera 1 acquires the user judgment input, only the sensors necessary for event detection and presentation, the signal processing unit 25, the transmission unit 26, and the reception unit 27 can be operated. Power consumption can be reduced.
[0055]
In addition, the multi-sensor camera 1 is small and battery-driven, and further has a wireless communication function, so that a large space is not required and wiring processing for power supply is unnecessary. It can be installed in various places in the home. Furthermore, since a plurality of sensors are mounted, various events in the home can be detected.
[0056]
FIG. 3 is a block diagram showing a functional configuration of the processing box 2 of FIG.
[0057]
The reception unit 51 receives a signal transmitted by radio (radio wave) from the transmission unit 26 of the multi-sensor camera 1 and supplies the signal to the signal processing unit 52. The signal processing unit 52 receives a general viewing signal (television broadcast signal), and performs processing based on the signal supplied from the receiving unit 51 or construction of a presented image. When an event occurs, the signal processing unit 52 constructs presentation data to the presentation unit 3 and outputs the data to the presentation unit 3, constructs remote control presentation data to the remote controller 4, and transmits via the transmission unit 53. It transmits to the remote controller 4 by radio (infrared or radio wave).
[0058]
The receiving unit 54 receives a signal (user determination signal) based on a user's determination transmitted wirelessly (infrared rays or radio waves) from the remote controller 4 and supplies the signal to the signal processing unit 52. The signal processing unit 52 executes processing based on the user determination signal and transmits necessary data to the multi-sensor camera 1 via the transmission unit 55 by radio (radio wave).
[0059]
FIG. 4 is a block diagram showing a functional configuration of the remote controller 4 of FIG.
[0060]
The reception unit 81 receives a signal (for example, remote control presentation data) transmitted wirelessly (infrared rays or radio waves) from the transmission unit 53 of the processing box 2 and supplies the signal processing unit 82 with the signal. The signal processing unit 82 performs processing based on a signal such as decoding or encoding of the acquired signal.
[0061]
The remote control presentation unit 83 presents an image (including characters and symbols) based on the signal transmitted from the signal processing unit 82. The user input IF (interface) unit 84 receives an input based on a determination from the user with respect to the event, and supplies a signal based on the input to the signal processing unit 82.
[0062]
When an event occurs, the reception unit 81 receives remote control presentation data transmitted from the transmission unit 53 of the processing box 2, and the signal processing unit 82 causes the remote control presentation unit 83 to present an image based on the presentation data. . When determination is input to the user input IF unit 84 by the user, a user determination signal is supplied to the signal processing unit 82. The signal processing unit 82 transmits a user determination signal from the transmission unit 85 to the processing box 2 wirelessly (infrared rays or radio waves).
[0063]
For example, two buttons (for example, on the remote controller 4) can be input so that the user can input a determination such as “an event that I want to be notified in the future” or “an event that should not be notified in the future”. , An OK button 291 and an NG button 292 in FIG. 9 to be described later are provided. The multi-sensor camera 1 and the processing box 2 change the processing based on the input of judgment from the user.
[0064]
The principle configuration obtained by connecting the main part of the monitoring system 10 of FIG. 1 composed of the multi-sensor camera 1, the processing box 2, and the remote controller 4 of FIGS. 2 to 4 is shown in FIG. become. However, a wireless communication path is also shown as a wired communication path.
[0065]
The sensor 101 including the plurality of sensors 101a to 101n in the example of FIG. 5 corresponds to the multi-sensor camera 1 of FIG. 2, and includes a feature amount extraction unit 102, an event determination unit 103, a presentation data construction unit 104, and parameters. The control unit 108 including the control unit 121, the signal processing control unit 122, and the power supply control unit 123 corresponds to the processing box 2 in FIG. 3, and the remote control presenting unit 83 and the user input IF unit 84 are connected to the remote box in FIG. This can correspond to the controller 4. However, this correspondence is arbitrary, and for example, some or all of the feature amount extraction unit 102, the event determination unit 103, and the control unit 108 can be provided as a configuration on the multi-sensor camera 1 side. (This example is shown in FIG. 7 described later).
[0066]
Next, processing executed by the monitoring system 10 of FIG. 5 will be described with reference to the flowchart of FIG. This process is started when the user gives an instruction to start monitoring in the monitoring area.
[0067]
In step S1, the feature quantity extraction unit 102 acquires sensor data from each of the plurality of sensors 101a, 101b,..., 101n constituting the sensor 101 provided in the monitoring area.
[0068]
In step S2, the feature quantity extraction unit 102 calculates various feature quantities from the various sensor data acquired by the process in step S1. For example, the inter-frame difference of the image signal is taken, and the barycentric position of the inter-frame difference representing the position of the moving object is calculated. Alternatively, the amount of change in data of the infrared sensor is calculated.
[0069]
In step S <b> 3, the event determination unit 103 acquires various feature amounts calculated by the feature amount extraction unit 102.
[0070]
In step S <b> 4, the event determination unit 103 determines whether an event has occurred (whether it is an event) based on the acquired various feature amounts. At this time, the event determination unit 103 determines an event based on a determination parameter for determining an event held by itself. This parameter is controlled and updated by the parameter control unit 121. If it is determined in step S4 that it is an event, the process proceeds to step S5, and the event determining unit 103 presents an event occurrence signal indicating that an event has occurred and data necessary for event notification and presentation to construct the presentation data. To the unit 104.
[0071]
In step S <b> 6, the presentation data construction unit 104 acquires event generation signals, event notifications, and data necessary for presentation from the feature amount extraction unit 102, and uses the event presentation data as part of the general viewing signal (television broadcast signal). Create the inserted presentation data. In addition, the presentation data construction unit 104 creates presentation data (hereinafter referred to as remote control presentation data) for the remote controller 4 configured by event presentation data (not including a general viewing signal).
[0072]
In step S <b> 7, the presentation data construction unit 104 outputs the presentation data created by the process of step S <b> 6 to the presentation unit 3 and causes the presentation unit 3 to present it. Also, the presentation data construction unit 104 outputs the remote control presentation data to the remote control presentation unit 83 and causes the remote control presentation unit 83 to present it.
[0073]
Since the presentation data is configured by inserting event presentation data into a part of a general viewing signal, the presentation unit 3 displays picture-in-picture (for example, display as shown in FIG. 15 described later). Is presented. Further, since the remote control presentation data is composed of event presentation data, only the display indicating the event (for example, the image of the place being monitored) is presented on the remote control presentation unit 83.
[0074]
The user looks at the event (image and sound) notified and presented to the remote control presenting unit 83, and determines (for example, the event that is currently presented is an event that the user wants to be notified in the future or will not let it be done in the future. To determine whether it is a good event). At this time, for example, an image that prompts the user to input a determination may be displayed on the remote control presentation unit 83. When the judgment from the user is input, in step S8, the user input IF unit 84 acquires the judgment input for the event from the user. The user input IF unit 84 supplies a user determination signal based on the acquired determination input from the user to the control unit 108 including the parameter control unit 121, the signal processing control unit 122, and the power supply control unit 123.
[0075]
In step S9, the parameter control unit 121 updates the determination parameter for determining the event held in the event determination unit 103 based on the user determination signal acquired by the process in step S8, and the user intends. Enable event detection. For example, when brightness that is equal to or higher than the reference value is detected, when the event detection signal is set to be generated, the reference value can be changed to a brighter reference value or a darker reference value.
[0076]
In step S10, the signal processing control unit 122 controls the feature amount extraction unit 102 based on the user determination signal (the user determination signal acquired by the process in step S8). Specifically, control is performed such that detection of unnecessary feature values is stopped, or light processing (for example, processing for detecting a small number of feature values) to heavy processing (a larger number of feature values) when necessary. And control to switch to a process that allows more accurate determination. For example, even if a person is photographed in the area 323 out of the area 322 (area that is desired to be detected as an event) and the area 323 (area that is not necessarily detected as an event) as shown in FIG. Can be prevented from being detected as a feature quantity.
[0077]
In step S11, the power supply control unit 123 performs control to turn on or off the power of the sensor 101 based on the user determination signal (the user determination signal acquired by the process in step S8). Specifically, among the sensors 101a to 101n, the feature amount extraction unit 102 and the event determination unit 103 perform control so that the power of sensors unnecessary is turned off. This can prevent wasted battery consumption.
[0078]
After the process of step S11, the process returns to step S1 and the same process is repeated.
[0079]
On the other hand, if the event determining unit 103 determines that the event is not an event in step S4, the process proceeds to step S12, and the presentation data constructing unit 104 directly uses the general viewing signal (television broadcast signal) as the presentation data. 3 is output. The presentation unit 3 presents a general viewing signal. Thereafter, the process returns to step S1, and the subsequent processes are repeated.
[0080]
With the processing in FIG. 6, the user can reliably detect an event intended by the user by performing a simple determination input, and controls each sensor and the processing unit to operate only when necessary. Therefore, the power consumption of the multi-sensor camera 1 can be reduced without consuming unnecessary power.
[0081]
A specific example of the monitoring system (home security system) will be described below with reference to FIGS.
[0082]
In this example, the sensors to be used are the camera 201 and the infrared sensor 202 (FIG. 7), and the user responds to the presented event with “OK (to be detected as an event in the future)” or “NG (from now on). May not be detected as an event). In this case, a configuration example of the multi-sensor camera 1 is shown in FIG. 7, a configuration example of the processing box 2 is shown in FIG. 8, and a configuration example of the remote controller 4 is shown in FIG. Furthermore, flowcharts for explaining processing in each device are shown in FIGS. 10 to 14, and images presented in the presentation unit 3 are shown in FIGS. 15 and 16. Further, images presented on the remote control presenting unit 283 are shown in FIGS. 17 and 18. In the figure, portions corresponding to those in FIG. 5 are given the same reference numerals, and the description thereof will be omitted because it will be repeated.
[0083]
In FIG. 7, sensor data acquired by the camera 201 and the infrared sensor 202 is supplied to the feature amount extraction unit 102. For example, the infrared sensor 202 is always turned on, and the camera 201 is normally turned off to reduce power consumption (controlled by the control unit 108 as described above). The feature amount extraction unit 102 extracts a feature amount from the sensor data acquired by the infrared sensor 202 and supplies the feature amount to the event determination unit 103.
[0084]
Notification data used for notifying that an event has occurred is supplied from the feature quantity extraction unit 102 to the encoding unit 203, and the encoding unit 203 encodes this and supplies it to the transmission unit 204. When an event occurs, the transmission unit 204 transmits the encoded notification data to the processing box 2. The user determination signal transmitted from the processing box 2 is received by the receiving unit 205, decoded by the decoding unit 206, and then supplied to the control unit 108. As described above, the control unit 108 executes processing based on the user determination signal.
[0085]
Specifically, as described with reference to FIG. 5, the control unit 108 controls the event determination unit 103 to update the event determination parameter, and the feature amount extraction unit 102 controls the feature of the image. The amount extraction process is controlled to start or stop, and the camera 201 or the infrared sensor 202 is controlled to be turned on or off.
[0086]
The encoding unit 203, the transmission unit 204, the reception unit 205, and the decoding unit 206 also operate the multi-sensor camera 1 without wasting power by causing the processing to be executed only when an event occurs. Can be made.
[0087]
When an event notification (notification data) is transmitted from the transmission unit 204 of the multi-sensor camera 1, the notification data is received by the reception unit 241 of the processing box 2 in FIG. 8 and decoded by the decoding unit 242. Thereafter, the data is supplied to the presentation data construction unit 104. As described above, the presentation data construction unit 104 creates presentation data in which an event signal is superimposed on a part of the general viewing signal, outputs the presentation data to the presentation unit 3, and encodes the event data itself as remote control presentation data. The data is encoded by 243 and transmitted to the transmission unit 244. When an event notification (data for notification) is not transmitted from the multi-sensor camera 1 (when no event has occurred), the presentation data construction unit 104 outputs the general viewing signal itself to the presentation unit 3 as presentation data. , To present.
[0088]
A user determination signal is transmitted from the remote controller 4 along with the transmission of the remote control presentation data. Therefore, the receiving unit 245 of the processing box 2 receives this and causes the decoding unit 246 to decode it. The decoded user determination signal is supplied to the presentation data construction unit 104 and the encoding unit 247. Based on the user determination signal, the presentation data construction unit 104 executes processing such as stopping processing for generating a picture-in-picture image, for example. The encoding unit 247 encodes the supplied user determination signal and causes the transmission unit 248 to transmit the encoded user determination signal. The user determination signal transmitted by the transmission unit 248 is received by the reception unit 205 of the multi-sensor camera 1.
[0089]
When remote control presentation data is transmitted from the transmission unit 244 of the processing box 2, the reception unit 281 of the remote controller 4 in FIG. 9 receives this and supplies it to the decoding unit 282. The decoding unit 282 decodes the remote control presentation data and causes the remote control presentation unit 83 to present an image based on the decoded remote control presentation data.
[0090]
On the other hand, the user can input a judgment (whether it is detected as an event (OK) or not (NG)) by operating the OK button 291 or the NG button 292.
[0091]
The user input IF 84 detects that any one of the OK button 291 or the NG button 292 is operated, and supplies it to the encoding unit 283 as a user determination signal. The encoding unit 283 encodes the user determination signal and causes the transmission unit 284 to transmit it. The transmission unit 284 transmits the user determination signal to the reception unit 245 of the processing box 2.
[0092]
Next, processing in the multi-sensor camera 1 in FIG. 7, the processing box 2 in FIG. 8, and the remote controller 4 in FIG. 9 will be described with reference to the flowcharts in FIGS.
[0093]
First, processing in the multi-sensor camera 1 of FIG. 7 will be described with reference to the flowcharts of FIGS. 10 and 11. This process is started when the user gives an instruction to start monitoring in the monitoring area.
[0094]
In step S <b> 51, the camera 201 and the infrared sensor 202 that are deemed necessary acquire image data and detection data as sensor data, and supply them to the feature amount extraction unit 102. In the present example, both the camera 201 and the infrared sensor 202 are operated (necessary). However, the present invention is not limited to this. For example, only the infrared sensor 202 or only the camera 201 operates. It is good as it is.
[0095]
In step S52, the feature amount extraction unit 102 calculates a necessary feature amount. Specifically, necessary feature amounts such as the inter-frame difference of the image data output from the camera 201, the barycentric position of the inter-frame difference, and the change amount of the sensor data output from the infrared sensor 202 are calculated. Note that necessary feature values are converted from time to time. This is because it is controlled by the control unit 108. The feature amount extraction unit 102 supplies the calculated various feature amounts to the event determination unit 103 and also supplies it to the encoding unit 203 as notification data.
[0096]
In step S53, the event determination unit 103 acquires the supplied various feature amounts (various feature amounts calculated and supplied by the processing in step S52).
[0097]
In step S54, the event determination unit 103 determines whether an event has occurred (whether or not it is an event) based on the acquired various feature amounts. At this time, the event determination unit 103 determines an event based on a determination parameter for determining an event held by itself. This parameter is controlled and updated by the control unit 108. If it is determined in step S54 that the event is an event, the process proceeds to step S55, and the event determination unit 103 transmits the event occurrence signal to the encoding unit 203, the transmission unit 204, the reception unit 205, and the decoding unit 206. The encoding unit 203, the transmission unit 204, the reception unit 205, and the decoding unit 206 are in an operating state when this event occurrence signal is supplied. Therefore, when the event occurrence signal is not supplied, it is in the non-operating state (off state), so that it is possible to suppress wasteful consumption of power.
[0098]
In step S <b> 56, the encoding unit 203 receives the notification data (event notification data) transmitted from the feature amount extraction unit 102 in the process of step S <b> 52, encodes it, and supplies it to the transmission unit 204.
[0099]
In step S <b> 57, the transmission unit 204 transmits the notification data encoded and supplied by the encoding unit 203 to the processing box 2.
[0100]
The processing box 2 receives the notification data (step S103 in FIG. 12 to be described later) and transmits a user determination signal corresponding thereto (step S112 in FIG. 12 to be described later).
[0101]
In step S58, the receiving unit 205 determines whether a user determination signal has been transmitted. When the user determination signal is transmitted, the process proceeds to step S59, and the reception unit 205 receives the user determination signal and supplies it to the decoding unit 206.
[0102]
In step S <b> 60, the decoding unit 206 decodes the user determination signal and supplies it to the control unit 108.
[0103]
In step S <b> 61, the control unit 108 executes control such as parameter change control of the event determination unit 103, signal processing control of the feature amount extraction unit 102, and sensor power control. Details have been described with reference to FIG. 5 and FIG.
[0104]
If it is determined in step S54 that the event is not an event, if it is determined in step S58 that a user determination signal has not been transmitted, or after the process in step S61, the process returns to step S51, and the subsequent processes are repeated. It is.
[0105]
Next, processing in the processing box 2 in FIG. 8 corresponding to the processing of the multi-sensor camera 1 in FIGS. 10 and 11 will be described with reference to FIGS. 12 and 13. This process is started when the user instructs the presenting unit 3 to start presenting an image corresponding to the general viewing signal (broadcast program signal) or starting in the monitoring area.
[0106]
In step S101, the reception unit 241 determines whether there is an event notification. Specifically, the reception unit 241 determines whether notification data has been transmitted from the transmission unit 204 of the multi-sensor camera 1. In step S101, when it is determined that the event notification is not made (when it is determined that the notification data is not transmitted), the process proceeds to step S102, and the presentation data construction unit 104 directly displays the general viewing signal as the presentation data. Is output to the presenting unit 3 and is presented to the presenting unit 3. Thereafter, the processing returns to step S101, and the subsequent processing is repeated.
[0107]
If it is determined in step S101 that there is an event notification, in step S103, the reception unit 241 receives the notification data and causes the decoding unit 242 to decode it. The decryption unit 242 supplies the decrypted notification data to the presentation data construction unit 104.
[0108]
In step S104, the presentation data construction unit 104 receives the supplied notification data and creates presentation data. Specifically, the presentation data construction unit 104 creates presentation data by creating an event image on a part of a general viewing image (creates image data to be a picture-in-picture). Thereafter, the presentation data construction unit 104 outputs the created presentation data to the presentation unit 3 for presentation.
[0109]
At this time, an image as shown in FIG. 15 or 16 is displayed on the presenting unit 3. In the case of the example of FIG. 15, an event presentation area 321 is presented on the presentation unit 3 in a part of the general viewing screen 320. In the event presentation area 321, the image of the person photographed by the camera 201 is displayed in the right area 323 of the left area 322 and the right area 323 in the drawing. In response to the event presentation, the user operates the OK (desired to be detected as an event in the future) button 291 or the NO (does not be detected as an event in the future) button 292 of the remote controller 4 to make a determination. Will be entered. This user determination signal is transmitted from the remote controller 4 (step S156 in FIG. 14 described later).
[0110]
Assuming that the left region 322 of the regions 322 and 323 is a region that the user wants to detect as an event, the user does not respond to the event presentation as shown in FIG. The button 292 is operated. When the NO button 292 is operated by the user, a user determination signal corresponding to this is transmitted from the remote controller 4. When receiving this, the processing box 2 transmits it to the multi-sensor camera 1 (step S112 described later). As described above, when receiving the user determination signal, the control unit 108 of the multi-sensor camera 1 controls the feature amount extraction unit 102 to exclude the area on the right side of the angle of view of the camera 201 from the feature amount extraction range. (Step S61 in FIG. 11). As a result, even if a person is photographed in the area on the right side of the angle of view thereafter, an event occurrence signal is not generated, and event notification is performed when a person is photographed in the area on the left side. Thereby, for example, a presentation as shown in FIG. 16 is performed.
[0111]
When the user operates the NO button 292, only the general viewing image is presented on the presentation unit 3. That is, the event presentation area 321 is not displayed. As a result, the user can view the event presentation area 321 only in a necessary place without being presented with a useless event.
[0112]
Returning to FIG. 12, in step S <b> 105, the presentation data construction unit 104 creates remote control presentation data and outputs it to the encoding unit 243. The remote control presentation data does not include a general viewing signal, and the remote control presentation data is composed of notification data itself. When receiving the remote control presentation data, the remote controller 4 displays the corresponding image as shown in FIG. 17 or 18 (step S153 in FIG. 14 described later).
[0113]
In step S106, the encoding unit 243 encodes the remote control presentation data supplied by the process of step S105, and supplies this to the transmission unit 244.
[0114]
In step S107, the transmission unit 244 transmits the encoded remote control presentation data supplied by the processing in step S106 to the remote controller 4. The remote controller 4 receives this (step S151 in FIG. 14 to be described later), and after presenting (step S153 in FIG. 14 to be described later), transmits a user determination signal that is a signal based on the determination input by the user. (Step S156 in FIG. 14 described later).
[0115]
Therefore, in step S108, the receiving unit 245 determines whether or not a user determination signal has been transmitted. If it is determined that the user determination signal has been transmitted, the reception unit 245 receives the user determination signal and supplies it to the decoding unit 246 in step S109.
[0116]
In step S110, the decoding unit 246 decodes the user determination signal supplied by the process of step S109, supplies this to the presentation data construction unit 104, and supplies it to the encoding unit 247.
[0117]
In step S <b> 111, the encoding unit 247 encodes the user determination signal supplied by the process of step S <b> 110 and supplies this to the transmission unit 248.
[0118]
In step S112, the transmission unit 248 transmits the supplied user determination signal encoded by the process of step S111 to the multi-sensor camera 1. As described above, the multi-sensor camera 1 executes processing based on the user determination signal (step S61 in FIG. 11).
[0119]
In step S113, the presentation data construction unit 104 acquires the user determination signal decoded by the decoding unit 246 by the process of step S110, and executes processing based on the user determination signal.
[0120]
At this time, as described above, the presentation data construction unit 104 includes a signal that stops construction of the presentation data (for example, a signal that an NG button 292 in FIG. 17 described later is operated) in the user determination signal. If it is included, processing such as stopping the construction of the presentation data including the event image is executed. At this time, the event presentation area 321 is not presented in the presentation unit 3.
[0121]
In addition, when the user determination signal includes a signal that continues the construction of the presentation data (for example, a signal that an OK button 291 in FIG. 17 described later is operated), A process of continuing construction of the presentation data including the image is executed. At this time, the event presentation area 321 as shown in FIG.
[0122]
After step S102, if it is determined in step S108 that a user determination signal has not been transmitted, or after step S113, the process returns to step S101, and the subsequent processes are repeated.
[0123]
Next, processing in the remote controller 4 in FIG. 9 corresponding to the processing in the processing box 2 in FIGS. 12 and 13 will be described with reference to FIG. This process is started when the process of step S107 in FIG. 12 is executed by the transmission unit 244 of the process box 2.
[0124]
In step S151, the reception unit 281 receives remote control presentation data transmitted from the transmission unit 244 of the processing box 2 (transmitted from the transmission unit 244 of the processing box 2 by the processing of step S107 in FIG. 12). This is supplied to the decoding unit 282.
[0125]
In step S152, the decoding unit 282 decodes the remote control presentation data received by the process of step S151, and supplies the decoded remote control presentation data to the remote control presentation unit 83.
[0126]
In step S153, the remote control presenting unit 83 presents an image based on the received remote control presentation data.
[0127]
At this time, an image as shown in FIG. 17 or 18 is displayed on the remote control presentation unit 83. This image is the same image as the image of the event presentation area 321 in FIGS. 15 and 16 described above. That is, the remote control presentation data includes only data corresponding to the event presentation area 321 among the presentation data output to the presentation unit 3.
[0128]
In the case of the example in FIG. 17, the remote control presentation unit 83 presents an event based on the remote control presentation data. Of the left region 293 and the right region 294 in the figure of the remote control presentation unit 83, if the left region 293 is a region that the user wants to detect as an event, as shown in FIG. 17, the right region When a person image is displayed on the 294, the user presents an OK (desired to be detected as an event in the future) button 291 and a NO (may not be detected as an event in the future) button 292 for the event presentation. Of these, the NO button 292 is operated. On the other hand, as shown in FIG. 18, when a person image is displayed in the left area 293, the user operates the OK button 291.
[0129]
Therefore, in step S154, the user input IF unit 84 determines whether the user's determination has been input (whether one of the OK button 291 or the NG button 292 has been operated). If it is determined that the user's determination is input, the process proceeds to step S155, and the user input IF unit 84 supplies the user determination signal, which is a signal based on the user's determination, to the encoding unit 283, and the encoding unit 283 Encodes this. Thereafter, the encoding unit 283 supplies the encoded user determination signal to the transmission unit 284.
[0130]
In step S156, the transmission unit 284 transmits the encoded user determination signal (the user determination signal encoded by the encoding unit 283 by the process of step S154) to the processing box 2. The multi-sensor camera 1 and the processing box 2 receive this (step S59 in FIG. 11 and step S109 in FIG. 12), and execute the processing based on the user determination signal as described above. For example, when the user determination signal of the NG button 292 is transmitted in response to the presentation as shown in FIG. 17, the multi-sensor camera 1 is the right region in the range (view angle) captured by the camera 201. Are excluded from the feature extraction processing. As a result, an image in which a person is displayed in the right area 294 as shown in FIG. 17 will no longer be transmitted as an event, and a person is displayed in the left area 293 as shown in FIG. The displayed image is presented as an event image.
[0131]
In the process of step S154, when it is determined that the user's judgment is not input or after the process of step S156, the process returns to step S151, and the subsequent processes are repeated.
[0132]
In addition, as an example of a change in processing of the multi-sensor camera 1, for example, during a predetermined period after the use of the monitoring system 10 is started (when the number of determination inputs by the user is less than the predetermined number), the camera 201 and the infrared The sensor 202 is always turned on, and after a predetermined period has elapsed (when the number of determination inputs by the user exceeds a predetermined number), the camera 201 is normally turned off, and the camera is not the first camera when the infrared sensor 202 reacts. It can also be controlled to turn on 201.
[0133]
In addition, regarding the processing of the event determination unit 103, for example, during a predetermined period after the use of the monitoring system 10 is started (when the number of determination inputs by the user is less than the predetermined number), an image of a person (intruder) is captured. An event is output wherever the position (area) is, and after a predetermined period has elapsed (when the number of determination inputs by the user exceeds a predetermined number), the user can operate the OK button 291 to operate the user. It is also possible to change the determination parameter of the event determination unit 103 so that an event is output only when a person (intruder) is imaged at the position (area) specified by.
[0134]
By the above processing, the sensor to be operated is switched based on the user's judgment, and further, the processing in the multi-sensor camera 1 is changed by repeating the user's judgment, so that only the event intended by the user is detected and notified. Since only necessary sensors, signal processing, and the like operate, it is possible to detect and notify an event flexibly, and to reduce wasteful power consumption. Since the multi-sensor camera 1 is driven by the battery 28, one or more of the feature amount extraction unit 102, the event determination unit 103, and the control unit 108 are accommodated in the processing box 2 in order to reduce power consumption as much as possible. It is preferable to do so.
[0135]
Moreover, since the power consumption of the multi-sensor camera 1 can be suppressed and the size can be further reduced, the multi-sensor camera 1 can be easily installed in various places.
[0136]
The above example is an example for realizing the monitoring system 10, and many other system configurations are conceivable. An example is shown below.
[0137]
For example, the sensor to be used is not limited to a camera, a microphone, and an infrared sensor, and other sensors can be mounted. Further, the event to be detected is not limited to the above-described example.
[0138]
Further, for example, communication between the multi-sensor camera 1 and the processing box 2 is not limited to wireless communication, and may be wired communication.
[0139]
Also, a plurality of multi-sensor cameras 1 can be provided instead of one.
[0140]
Furthermore, it is possible to provide a plurality of the presenting units 3 instead of one.
[0141]
In addition, the processing box 2 can be an integral type, not a separate housing from the presenting unit 3.
[0142]
Furthermore, the remote controller 4 may not be provided with the remote controller presenting unit 83 and only the presenting unit 3 may be presented.
[0143]
Further, instead of presenting an event to the remote controller 4, an event presenting section and an input IF section for inputting user judgment can be provided in the processing box 2.
[0144]
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. It can be installed from a recording medium such as a general-purpose personal computer. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.
[0145]
In FIG. 19, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.
[0146]
The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.
[0147]
The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), an output unit 507 including a speaker, and a hard disk. A communication unit 509 including a storage unit 508, a modem, a terminal adapter, and the like is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.
[0148]
A drive 510 is connected to the input / output interface 505 as necessary, and a removable medium 521 made up of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.
[0149]
When a series of processing is executed by software, various functions can be implemented by installing a computer or various programs installed in the dedicated hardware for the programs that make up the software. For example, a general-purpose personal computer or the like that can be executed is installed from a network or a recording medium.
[0150]
As shown in FIG. 19, this recording medium is not only composed of a package medium consisting of a removable medium 521 on which a program is recorded, which is distributed to provide a program to a user, separately from the computer. These are configured by a hard disk including a ROM 502 storing a program and a storage unit 508 provided to the user in a state of being pre-installed in the apparatus main body.
[0151]
In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.
[0152]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0153]
【The invention's effect】
  As above,The present inventionAccording to the above, an event can be notified. In particular, according to the present invention, an event can be detected and notified flexibly based on a user's judgment input. Moreover, useless power consumption can be suppressed.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a monitoring system to which the present invention is applied.
2 is a block diagram showing a functional configuration of the multi-sensor camera of FIG. 1. FIG.
FIG. 3 is a block diagram showing a functional configuration of a processing box in FIG. 1;
4 is a block diagram showing a functional configuration of the remote controller of FIG. 1. FIG.
FIG. 5 is a block diagram showing the basic configuration of the monitoring system of FIG. 1;
6 is a flowchart for explaining event detection processing executed by the monitoring system of FIG. 5;
7 is a block diagram illustrating a configuration example of the multi-sensor camera of FIG. 1. FIG.
8 is a block diagram illustrating a configuration example of a processing box in FIG. 1. FIG.
9 is a block diagram illustrating a configuration example of the remote controller in FIG. 1. FIG.
10 is a flowchart illustrating processing in the multi-sensor camera of FIG.
11 is a flowchart for explaining processing in the multi-sensor camera of FIG. 7;
12 is a flowchart for explaining processing in the processing box of FIG. 8;
FIG. 13 is a flowchart for explaining processing in the processing box of FIG. 8;
14 is a flowchart illustrating processing in the remote controller of FIG. 9;
FIG. 15 is a diagram showing an example of presentation in the process of step S104 in FIG.
16 is a diagram showing a presentation example in the process of step S104 of FIG.
FIG. 17 is a diagram illustrating an example of presentation in the process of step S153 of FIG.
FIG. 18 is a diagram showing an example of presentation in the process of step S153 in FIG.
FIG. 19 is a block diagram illustrating a configuration example of a personal computer.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Multi-sensor camera, 2 Processing box, 3 Presentation part, 4 Remote controller, 10 Monitoring system, 83 Presentation part, 84 User input IF part, 101 Sensor, 102 Feature quantity extraction part, 103 Event determination part, 104 Presentation data construction part , 108 control unit, 121 parameter control unit, 122 signal processing control unit, 123 power control unit, 291 OK button, 292 NG button

Claims (10)

センサデータに基づく監視処理を実行する情報処理システムにおいて、
センサデータを取得するセンサ手段と、
前記センサ手段により取得された前記センサデータに基づいて、物体の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定手段と、
前記イベント判定手段により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成する呈示データ作成手段と、
前記呈示データ作成手段により作成された前記呈示データに基づく呈示を行なう呈示手段
を備え
前記呈示データ作成手段は、前記呈示データ作成手段を制御するリモートコントローラに前記イベントを通知するための前記イベントデータで構成されるリモコン呈示データをさらに作成する
ことを特徴とする情報処理システム。
In an information processing system that executes monitoring processing based on sensor data,
Sensor means for obtaining sensor data;
Based on the sensor data acquired by the sensor means, feature quantity extraction means for extracting the feature quantity of the object;
Event determining means for acquiring the feature amount extracted by the feature amount extracting means and determining whether an event has occurred based on a determination parameter;
When the event determination means determines that the event has occurred, presentation data creation means for creating presentation data including event data for notifying the event;
And presenting means for presenting based on the presenting data created by the presenting data creating means ,
The presenting data creating means further creates remote control presenting data composed of the event data for notifying the event to a remote controller that controls the presenting data creating means.
The information processing system characterized in that.
前記呈示データ作成手段により作成された前記リモコン呈示データを呈示するリモコン呈示手段をさらに備える
ことを特徴とする請求項に記載の情報処理システム。
The information processing system according to claim 1 , further comprising remote control presenting means for presenting the remote control presenting data created by the presenting data creating means.
前記呈示データ作成手段は、前記イベント判定手段により前記イベントが発生していないと判定された場合、所定の信号に基づくデータを呈示データとする
ことを特徴とする請求項1に記載の情報処理システム。
2. The information processing system according to claim 1, wherein when the event determination unit determines that the event has not occurred, the presentation data creation unit uses data based on a predetermined signal as the presentation data. .
前記センサ手段は、複数のセンサにより複数の前記センサデータを取得するように構成され、他の情報処理装置から送信されてくる、ユーザの指令に基づく判断信号に基づいて、前記複数のセンサをオンまたはオフする
ことを特徴とする請求項1に記載の情報処理システム
The sensor means is configured to acquire a plurality of sensor data by a plurality of sensors, and turns on the plurality of sensors based on a determination signal based on a user command transmitted from another information processing apparatus. The information processing system according to claim 1, wherein the information processing system is turned off.
前記呈示データ作成手段は、テレビジョン放送に基づく信号に前記イベントデータを挿入して前記呈示データを作成する
ことを特徴とする請求項1に記載の情報処理システム。
The information processing system according to claim 1, wherein the presentation data creation unit creates the presentation data by inserting the event data into a signal based on television broadcasting.
前記センサ手段は、カメラ、マイクロホン、または赤外線センサのいずれかを含む
ことを特徴とする請求項1に記載の情報処理システム。
The information processing system according to claim 1, wherein the sensor means includes any one of a camera, a microphone, and an infrared sensor.
センサデータに基づく監視処理を実行する情報処理システムの情報処理方法において、
センサデータを取得するセンサステップと、
前記センサステップの処理により取得された前記センサデータに基づいて、物体の特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップの処理により抽出された前記特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定ステップと、
前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成するとともに、前記呈示データの作成を制御するリモートコントローラに前記イベントを通知するための前記イベントデータで構成されるリモコン呈示データを作成する呈示データ作成ステップと、
前記呈示データ作成ステップの処理により作成された前記呈示データに基づく呈示を制御する呈示ステップ
を含むことを特徴とする情報処理方法。
In an information processing method of an information processing system that executes monitoring processing based on sensor data,
A sensor step for obtaining sensor data;
A feature amount extraction step of extracting a feature amount of an object based on the sensor data acquired by the processing of the sensor step;
An event determination step of acquiring the feature amount extracted by the processing of the feature amount extraction step and determining whether an event has occurred based on a determination parameter;
When it is determined by the event determination step that the event has occurred, presentation data including event data for notifying the event is created, and the event is sent to a remote controller that controls creation of the presentation data. Presenting data creating step for creating remote control presenting data composed of the event data for notification ;
The information processing method characterized by including the presentation step of controlling the presentation based on the presentation data generated by the processing of the presentation data creating step.
前記センサデータは、複数のセンサによって出力されるデータであり、他の情報処理装置から送信されてくる、ユーザの指令に基づく判断信号に基づいて、前記複数のセンサをオンまたはオフするセンサ制御ステップをさらに含む
ことを特徴とする請求項7に記載の情報処理方法。
The sensor data is data thus outputted to a plurality of sensors, transmitted from another information processing apparatus, based on the determination signal based on the instruction of the user, the sensor control to turn on or off the plurality of sensors The information processing method according to claim 7, further comprising a step .
センサデータに基づく監視処理を実行するプログラムであって、
前記センサデータに基づいて、物体の特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップの処理により抽出された前記特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定ステップと、
前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成するとともに、前記呈示データの作成を制御するリモートコントローラに前記イベントを通知するための前記イベントデータで構成されるリモコン呈示データを作成する呈示データ作成ステップ
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for executing monitoring processing based on sensor data,
A feature amount extracting step for extracting a feature amount of the object based on the sensor data;
An event determination step of acquiring the feature amount extracted by the processing of the feature amount extraction step and determining whether an event has occurred based on a determination parameter;
When it is determined by the event determination step that the event has occurred, presentation data including event data for notifying the event is created, and the event is sent to a remote controller that controls creation of the presentation data. recording medium on which computer-readable program, wherein is recorded to include the presentation data generating step of generating a remote control presentation data composed of the event data for notification to.
センサデータに基づく監視処理を実行するプログラムであって、
前記センサデータに基づいて、物体の特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップの処理により抽出された前記特徴量を取得し、判定パラメータに基づいて、イベントが発生したか否かを判定するイベント判定ステップと、
前記イベント判定ステップの処理により前記イベントが発生したと判定された場合、前記イベントを通知するためのイベントデータを含む呈示データを作成するとともに、前記呈示データの作成を制御するリモートコントローラに前記イベントを通知するための前記イベントデータで構成されるリモコン呈示データを作成する呈示データ作成ステップ
をコンピュータに実行させることを特徴とするプログラム。
A program for executing monitoring processing based on sensor data,
A feature amount extracting step for extracting a feature amount of the object based on the sensor data;
An event determination step of acquiring the feature amount extracted by the processing of the feature amount extraction step and determining whether an event has occurred based on a determination parameter;
When it is determined by the event determination step that the event has occurred, presentation data including event data for notifying the event is created, and the event is sent to a remote controller that controls creation of the presentation data. a program characterized by executing the presentation data generating step of generating a remote control presentation data composed of the event data for notifying that the computer.
JP2002303795A 2002-10-18 2002-10-18 Information processing system and method, recording medium, and program Expired - Fee Related JP3820586B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2002303795A JP3820586B2 (en) 2002-10-18 2002-10-18 Information processing system and method, recording medium, and program
US10/681,242 US7602413B2 (en) 2002-10-18 2003-10-09 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US11/763,956 US8072491B2 (en) 2002-10-18 2007-06-15 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US11/763,931 US7830410B2 (en) 2002-10-18 2007-06-15 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US11/763,664 US7840284B2 (en) 2002-10-18 2007-06-15 Information processing system and associated methodology of surveillance event monitoring
US11/847,642 US7605841B2 (en) 2002-10-18 2007-08-30 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US12/642,311 US8803969B2 (en) 2002-10-18 2009-12-18 Event monitoring report and display system
US14/319,842 US9648288B2 (en) 2002-10-18 2014-06-30 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US14/319,664 US9729836B2 (en) 2002-10-18 2014-06-30 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US14/319,718 US9532014B2 (en) 2002-10-18 2014-06-30 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US15/619,137 US10356370B2 (en) 2002-10-18 2017-06-09 Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002303795A JP3820586B2 (en) 2002-10-18 2002-10-18 Information processing system and method, recording medium, and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2006121573A Division JP4492582B2 (en) 2006-04-26 2006-04-26 Information processing apparatus and monitoring processing system
JP2006121572A Division JP4403418B2 (en) 2006-04-26 2006-04-26 Information processing system and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2004140623A JP2004140623A (en) 2004-05-13
JP3820586B2 true JP3820586B2 (en) 2006-09-13

Family

ID=32451425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002303795A Expired - Fee Related JP3820586B2 (en) 2002-10-18 2002-10-18 Information processing system and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP3820586B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5105190B2 (en) * 2008-09-29 2012-12-19 サクサ株式会社 Remote monitoring system and server
US8319833B2 (en) * 2009-06-23 2012-11-27 Sentrus, Inc. Video surveillance system
US9619718B2 (en) * 2013-12-18 2017-04-11 Johnson Controls Technology Company In-vehicle camera and alert systems
JP2018107487A (en) 2016-12-22 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 Information transmitter, information transmission method and information transmission system
CN113194297B (en) * 2021-04-30 2023-05-23 重庆市科学技术研究院 Intelligent monitoring system and method

Also Published As

Publication number Publication date
JP2004140623A (en) 2004-05-13

Similar Documents

Publication Publication Date Title
US11831940B2 (en) Systems, methods and apparatus for interacting with a security system using a television remote control
US20040155963A1 (en) Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US8185756B2 (en) System and method for transmitting a power control signal to an external device based on the presence of linkage information
US20060064732A1 (en) Adapter apparatus and network camera control method
KR20140072688A (en) Display apparatus and method of controlling thereof
JP2008199514A (en) Image display device
JP3820586B2 (en) Information processing system and method, recording medium, and program
JP4403418B2 (en) Information processing system and method, recording medium, and program
JP4492582B2 (en) Information processing apparatus and monitoring processing system
US8605218B2 (en) Home audio video display device (AVDD) as sensor monitor
US20050183113A1 (en) Video apparatus
US8669869B2 (en) Method and device for detecting and reporting activity
JP2009003735A (en) Security system
US9473728B2 (en) Home audio video display device (AVDD) as sensor monitor
JP4406821B2 (en) Monitoring system and method, information processing apparatus, recording medium, and program
JP6173141B2 (en) Wireless communication system and wireless transmitter
KR102040939B1 (en) Surveillance system and operation method thereof
JP4438344B2 (en) Monitoring system and method, information processing apparatus and method, recording medium, and program
JP4438341B2 (en) Monitoring system and method, information processing apparatus and method, recording medium, and program
JP4605429B2 (en) Monitoring system, information processing apparatus and method, recording medium, and program
KR100687921B1 (en) Electronic Equipment
KR101068772B1 (en) Monitoring system, camera and display
JP2006171996A (en) Power source controller with monitoring function, electric equipment with this controller, and electric equipment system
JP2002344951A (en) Monitoring system and method
JP2000030169A (en) Picture monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060611

R151 Written notification of patent or utility model registration

Ref document number: 3820586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090630

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110630

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120630

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130630

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees