JP2011138409A - 画像センサおよび監視システム、ならびに、画像センサの画像処理方法 - Google Patents

画像センサおよび監視システム、ならびに、画像センサの画像処理方法 Download PDF

Info

Publication number
JP2011138409A
JP2011138409A JP2009298919A JP2009298919A JP2011138409A JP 2011138409 A JP2011138409 A JP 2011138409A JP 2009298919 A JP2009298919 A JP 2009298919A JP 2009298919 A JP2009298919 A JP 2009298919A JP 2011138409 A JP2011138409 A JP 2011138409A
Authority
JP
Japan
Prior art keywords
image data
area
mask
image
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009298919A
Other languages
English (en)
Inventor
Hideaki Yamagishi
英明 山岸
Sawaki Sato
沢樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2009298919A priority Critical patent/JP2011138409A/ja
Publication of JP2011138409A publication Critical patent/JP2011138409A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】カメラによる監視領域内におけるプライバシーを保護すると共に、監視領域内での異変の発生を検知可能とする。
【解決手段】カメラから出力された撮像画像に対してプライバシー領域を指定し、プライバシー領域内の撮像画像をマスクする。撮像画像に基づき異変が検知された場合に、異変が検知された部分を含む所定範囲のマスクを解除すると共に、当該所定範囲に対して枠表示を行う。これにより、異変が発生していない通常時ではプライバシーの保護が実現され、異変が発生した場合には当該異変を確認することが可能となる。
【選択図】図3

Description

本発明は、画像を用いて監視を行うための画像センサおよび監視システム、ならびに、画像センサの画像処理方法に関する。
従来より、警備会社によって警備依頼主である顧客の店舗、事務所、テナントビル、マンション、住宅などのセキュリティを確保する監視システムとして、顧客の店舗、事務所、テナントビル、マンション、住宅などの監視領域にカメラを設置するようにした監視システムが知られている。このような監視システムでは、このカメラにより撮像された監視領域の画像データを、遠隔地にある警備会社の監視センタにネットワークを介して送信する。
このような監視システムは、監視センタからの要求に応じて、または、予め設定された任意のタイミングで、若しくは常にリアルタイムで、監視領域の画像データを監視センタに送信し、この監視領域の画像データを監視センタのモニタに表示させる。そして、監視センタの監視員は、モニタに表示された監視領域の画像に基づいて監視領域を監視し、監視領域内に侵入者や火災などの異常状態が発生しているものと判断した場合には、警備員を監視領域に急行させることによって、監視領域のセキュリティを確保している。
ところで、上述した監視システムでは、カメラに映り込んだ監視領域の画像データそのものをネットワークを介して監視センタに送信しているため、監視領域のプライバシーを保護することができない。すなわち、監視のために設置したカメラの撮像範囲に対し、顧客において警備会社の監視員にも見られたくない領域や、顧客ではない他人の領域であるがカメラ設置の都合上からカメラに映り込んでしまう領域などが含まれてしまう可能性がある。このような領域は、プライバシー保護の観点から、画像データを送信すべきでないと考えられる。
特許文献1には、監視のために設置したカメラで撮像された画像のうち、監視員にも見られたくない領域や他人の領域などをマスクして監視センタに送信するようにした構成が記載されている。この特許文献1によれば、警備依頼主である顧客や、顧客ではない他人のプライバシーを保護することができる。
特開2003−61076号公報
しかしながら、上述した特許文献1では、画像をマスクした領域で異変が発生しても、監視センター側でこの異変を検知することができないという問題点があった。
本発明は、上記に鑑みてなされたものであって、カメラに映り込んだ監視領域内におけるプライバシーを保護すると共に、監視領域内での異変の発生を検知可能な画像センサおよび監視システムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、第1の発明は、撮像手段で監視領域を撮像した画像データを、監視領域の監視を行う監視センタにネットワークを介して送信する画像センサであって、撮像手段で撮像した画像データの変化を検知する検知手段と、撮像手段で撮像した画像データのうち監視領域内の指定領域をマスクするマスク手段と、マスク手段で指定領域をマスクした画像データを監視センタに送信する送信手段とを有し、マスク手段は、検知手段で変化が検知された場合に、指定領域のうち、指定領域と変化が検知された部分を含む所定領域とが重複する領域に対して、マスクの解除を行うことを特徴とする。
また、第2の発明は、撮像手段で監視領域を撮像した画像データを、監視領域の監視を行う監視センタにネットワークを介して送信する画像センサの画像処理方法であって、検知手段が、撮像手段で撮像した画像データの変化を検知する検知ステップと、マスク手段が、撮像手段で撮像した画像データのうち監視領域内の指定領域をマスクするマスクステップと、送信手段が、マスクステップで指定領域をマスクした画像データを監視センタに送信する送信ステップとを有し、マスクステップは、検知ステップで変化が検知された場合に、指定領域のうち、指定領域と変化が検知された部分を含む所定領域とが重複する領域に対して、マスクの解除を行うことを特徴とする。
また、第3の発明は、画像センサが撮像手段で監視領域を撮像した画像データを、監視領域の監視を行う監視センタにネットワークを介して送信する監視システムであって、画像センサは、撮像手段で撮像した画像データの変化を検知する検知手段と、撮像手段で撮像した画像データのうち監視領域内の指定領域をマスクするマスク手段と、マスク手段で指定領域をマスクした画像データを監視センタに送信する送信手段とを有し、マスク手段は、検知手段で変化が検知された場合に、指定領域のうち、指定領域と変化が検知された部分を含む所定領域とが重複する領域に対して、マスクの解除を行い、監視センタは、画像センサから送信された画像データを表示する表示手段を有することを特徴とする。
本発明によれば、カメラによる監視領域内におけるプライバシーを保護すると共に、監視領域内での異変の発生が検知可能であるという効果を奏する。
本発明の実施形態に適用可能な監視システムの一例の構成を概略的に示すブロック図である。 画像センサのカメラで撮影された画像に対してプライバシー領域を適用した例を示す略線図である。 プライバシー領域が表示された画像に対して異変が検知された場合の画像の例を示す略線図である。 実施形態に適用可能な画像センサの一例の構成を示すブロック図である。 実施形態による画像処理部の一例の機能を示す機能ブロック図である。 被検出画像データから動きが検出された場合の例を示す略線図である。 差分検出ブロックが存在する被検出画像データに対してフェレ径を求めた例を示す略線図である。 実施形態による表示制御処理の一例を示すフローチャートである。 各表示モードにおけるプライバシー領域のマスクおよびフェレ径表示の有無の例を示す略線図である。
以下に添付図面を参照して、本発明に係る監視システムの実施形態を詳細に説明する。図1は、本実施形態に適用可能な監視システム1の一例の構成を概略的に示す。警備対象20に対して画像センサ10、10、…が設置されると共に、これら画像センサ10、10、…を制御するための制御装置11が設置される。画像センサ10、10、…と制御装置11とは、例えばLAN(Local Area Network)によるネットワーク12で接続され、互いに通信が可能とされている。なお、ここでは、警備対象20は、例えば店舗、事務所、テナントビル、マンション、住宅などの建物であるとする。
制御装置11は、例えばインターネットである外部ネットワーク21を介して、警備対象20に対して遠隔地にある監視センタ30と通信可能とされている。
画像センサ10、10、…は、それぞれカメラと、カメラで撮影され得られた画像データを処理する画像処理部と、ネットワーク12による通信制御を行う通信制御部とを少なくとも有する。また、画像センサ10、10、…は、カメラにより撮影された画像データに基づき、撮影対象(監視対象)における異変の発生を検知することが可能とされている。画像センサ10、10、…から出力された画像データは、ネットワーク12を介して制御装置11に伝送される。
制御装置11は、画像センサ10、10、…から伝送された画像データを外部ネットワーク21を介して監視センタ30に送信する。また、制御装置11は、画像センサ10、10、…から伝送された画像データを記録する機能を有する。さらに、制御装置11は、ネットワーク12を介して各画像センサ10、10、…を制御することができる。
監視センタ30では、制御装置11から送信されてきた、各画像センサ10、10、…による画像をそれぞれモニタに表示させる。例えば監視員がこれらモニタの表示に基づき、各警備対象20における異変の発生の有無を監視する。また、監視センタ30では、制御装置11から送信されてきた各画像センサ10、10、…による画像を、それぞれ記録装置に記録する。
監視システム1において、警備対象20に対して、さらに、火災センサおよび防犯窓センサといった、異変を検出するための各種センサや、ユーザ操作より異変を監視センタ30に通知するための非常通知装置などが設置される(図示は省略する)。これら各種センサや非常通知装置の出力は、制御装置11から外部ネットワーク21を介して監視センタ30に送信される。
本発明の実施形態においては、各画像センサ10、10、…それぞれの撮影画像に対し、カメラにより撮影された撮像画像の表示を行わない非表示領域を必要に応じて設定し、プライバシー保護を図る。このとき、各画像センサ10、10、…それぞれにおいて、非表示領域内で異変が検知された場合には、異変が検知された部分を含む所定範囲の撮像画像を非表示状態から表示状態に変更すると共に、当該所定範囲に対して枠表示を行う。枠表示は、表示状態の領域および非表示状態領域に対して目立つ色で表示させる。
図2および図3を用いて、より具体的に説明する。図2は、画像センサ10のカメラで撮影された撮像画像に対して非表示領域50を適用した例を示す。図2の例では、画像40は、撮像画像におけるドアノブを含むドア部分が非表示領域50に設定され、当該撮像画像における非表示領域50がマスクされている。以下、非表示領域50を、プライバシー保護のために撮像画像を非表示にする領域として、プライバシー領域50と呼ぶ。プライバシー領域50は、所定サイズおよび所定色のブロックであるマスクブロック51、51、…が配列されて構成される。すなわち、プライバシー領域50は、マスクブロック51を単位として設定することができる。
例えば、画面を縦横それぞれ16分割し、画像データを、16×16=256個のブロックに分割する。各マスクブロック51のサイズは、例えば、画面解像度が640画素×480ライン(VGA(Video Graphics Array))である場合、40画素×30ラインとなる。また、画面解像度が320画素×240ライン(QVGA(Quarter Video Graphics Array))である場合、20画素×15ラインとなる。
詳細は後述するが、プライバシー領域50を構成するマスクブロック51、51、…は、画像センサ10内で生成される。画像センサ10では、カメラから出力された画像データにおいて、プライバシー領域50内の画像データをマスクブロック51、51、…を表示する画像データで置き換えることで、プライバシー領域50がマスクされた画像40が生成される。この画像40の画像データが、画像センサ10、10、…からLAN12を介して制御装置11に伝送され、外部ネットワーク21を介して監視センタ30に送信される。
図3は、上述した図2の状態に対して異変が検知された場合の画像40’の例を示す。ここでは、撮像画像におけるドアノブ部分に異変が検知されたものとする。撮像画像に基づき異変が検知されると、異変が検知された部分を含む所定範囲(以下、フェレ径と呼ぶ)に対して枠52(以下、フェレ径表示52と呼ぶ)が表示されると共に、プライバシー領域50において、当該フェレ径とプライバシー領域50とが重複する領域のマスクが解除される。これにより、当該フェレ径の内部53において撮像画像が表示される。
本実施形態では、このように、カメラから出力された画像に対してプライバシー領域がマスクされた画像において、異変が検知された場合に、異変が検知された部分を含む所定範囲のマスクを解除する。これにより、異変が発生していない通常時ではプライバシーの保護が実現され、異変が発生した場合には当該異変を確認することが可能となる。
以下に、本実施形態による処理について、より詳細に説明する。図4は、本実施形態に適用可能な画像センサ10の一例の構成を示す。画像センサ10は、カメラ100、画像処理部101および制御部102を有し、画像処理部101の機能は、制御部102に含まれる。画像センサ10は、さらに、赤外線LED(Light Emitting Diode)107、赤外線LEDを駆動するための駆動部108、表示灯109、映像出力部110およびタンパ部111を含む。さらにまた、画像センサ10は、通信I/F(インターフェイス)103、設定スイッチ104、記憶部105およびイベント記憶部106を含む。
制御部102は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)、ならびに、各種のインターフェイスを含み、CPUは、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして、インターフェイスを介して画像センサ10の各部を制御する。制御部102は、さらに、画像処理部101の機能を実現するためのハードウェアを含んでいてもよい。また、画像処理部101の機能は、CPUによっても実現可能である。
カメラ100は、被写体である監視領域の画像を所定の時間間隔で連続的に撮影し、フレーム毎の撮像画像データとして出力する。
なお、画像センサ10は、カメラ100と共にマイクロフォン(図示しない)を備え、音声を収録することができるようになっている。マイクロフォンで収録した音声データは、制御部102の図示されない音声処理部に供給され、所定に音声処理される。
画像処理部101は、入力された撮像画像データに対して異変検知処理を行うと共に、予め設定されたプライバシー領域50をマスクブロック51、51、…で置き換えて撮像画像をマスクする。異変検知処理により異変が検知された場合、検知部分を含む所定範囲のプライバシー領域50のマスクブロック51、51、…によるマスクを解除すると共に、当該所定範囲に対して監視領域の画像を表示させる。また、当該所定範囲を示す枠をフェレ径表示52として表示させる。フェレ径表示52は、撮像画像に対して目立つ色で表示させると好ましい。画像処理部101で画像処理された画像データは、所定の方式で圧縮符号化されて制御部102から出力され、通信I/F103に供給される。
ここで、監視センタ30では、カメラ100により撮影された撮像画像に基づく画像データを、撮影に対して略リアルタイムにモニタ表示すると共に、当該画像データを記録装置に記録する。詳細は後述するが、画像センサ10は、監視センタ30で略リアルタイムにモニタ表示するための画像データと、画像センサ10の内部に記録するための画像データとを生成する。すなわち、画像センサ10からは、少なくとも2系統の画像データが出力され、外部ネットワーク21を介して監視センタ30に送信される。
通信I/F103は、ネットワーク12に対する通信を制御する。通信I/F103は、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)をプロトコルとして用い、ネットワーク12に接続された制御装置11との間で通信を行う。通信I/F103は、画像処理部101で画像処理され圧縮符号化されて供給された画像データを、ネットワーク12を介して制御装置11に対して送信する。
また、通信I/F103に対して、図示されないコンピュータ(PC)を接続し、当該コンピュータと画像センサ10との間で通信可能とすることができる。例えば、通信I/F103において、ネットワーク12に対する接続と、コンピュータに対する接続とが切り替え可能とされる。通信I/F103においてコンピュータとの接続を選択することで、当該コンピュータと画像センサ10との間での通信が可能となり、例えば画像センサ10に対する各種設定を当該コンピュータから行うことができる。なお、画像センサ10に対する各種設定は、画像センサ10に設けられる設定スイッチ104から行うこともできる。
記憶部105は、例えば不揮発性の半導体メモリからなり、システムデータと基準画像データとが記憶される。基準画像データは、詳細は後述するが、画像処理部101において異変検知を行う際の基準となる画像データである。
システムデータは、プライバシー領域50に関する情報が含まれる。例えば、画像データ上でのプライバシー領域50の範囲を示すアドレス情報や、プライバシー領域50を構成する各ブロック51、51、…それぞれのアドレス情報がシステムデータに含まれる。アドレス情報は、画像データの表示範囲をブロック51のサイズで分割したブロック単位で指定される。これに限らず、当該アドレス情報は、ピクセル単位で矩形の対角2点を指定してもよい。
イベント記憶部106は、例えば不揮発性の半導体メモリからなり、画像処理部101から出力された画像データや音声データを記憶する。イベント記憶部106の画像データや音声データは、通信I/F103からネットワーク12および外部ネットワーク21を介して、画像センサ10から監視センタ30に送信される。
なお、図4では、記憶部105およびイベント記憶部106がそれぞれ別個のメモリとして示されているが、これはこの例に限らず、1つのメモリの異なる領域をそれぞれ記憶部105およびイベント記憶部106として用いてもよい。
赤外線LED107は、制御部102の制御により駆動部108により駆動され、赤外線を照射する。赤外線LED107による赤外線の照射は、例えばカメラ100の撮像画像の照度が低い場合に行われる。
映像出力部110は、制御部102を介して画像処理部101で画像処理された画像データが供給される。映像出力部110は、例えば外部モニタ(図示しない)に接続され、画像処理部101から供給された画像データを当該外部モニタが表示可能な形式の映像信号に変換して、当該外部モニタに供給する。一例として、この外部モニタに映出された画像に基づき、カメラ100の画角調整を行う。
タンパ部111は、画像センサ10に対する不正な操作を検知する。例えば、画像センサ10の筐体のカバーが開けられたか否かを検知する。検知結果は制御部102に供給される。制御部102は、筐体のカバーが開けられたと判定されたら、不正操作がなされたと判断する。
図5は、本実施形態による画像処理部101の一例の機能を示す機能ブロック図である。カメラ100から所定間隔で出力された撮像画像は、画像取込部130に供給される。画像取込部130は、供給された撮像画像を、所定間隔で取り込んで出力する。画像データは、画像データのフレームレートに同期して取り込んでもよいし、数フレームおきに取り込んでもよい。画像取込部130で取り込まれた画像データは、動き検出部132に供給される。
動き検出部132は、画像取込部130から供給された画像データを、直接、マスク合成部134に供給すると共に、当該画像データにおける変化を検出し、動きを検知する。画像データから動きを検知することで、被写体に異変が生じたか否かを推測することができる。
動き検出部132における動き検出は、画像取込部130から供給された画像データと、記憶部105に記憶される基準画像データとを比較することで行われる。例えば、動き検出部132は、画像センサ10の起動時や初期化時など所定のタイミングで、記憶部105から基準画像データを読み出し、動き検出部132が有する画像メモリ(図示しない)に記憶する。スイッチ131を介して供給された画像データと基準画像データとを比較し、所定以上の差があれば、撮像画像に動きがあったと判定する。以下では、基準画像データと比較される画像データを、被検出画像データと呼ぶ。なお、基準画像を用いずに、連続するフレーム間の差分から動きを検知するようにしてもよい。
被検出画像データにおける撮像画像の動きの検出は、当該被検出画像データと基準画像データとの間で、輝度を比較することで行うことができる。一例として、被検出画像データおよび基準画像データのそれぞれを、対応する所定サイズのブロック(以下、動き検出ブロックと呼ぶ)に分割する。なお、動き検出ブロックのサイズは、プライバシー領域50におけるマスクブロック51のサイズと同一である必要はない。
動き検出部132は、被検出画像データおよび基準画像データのそれぞれにおいて、各動き検出ブロックについて画素毎の輝度値を積算する。被検出画像データと基準画像データとの間で、動き検出ブロック毎に輝度値の積算値を比較し、差分が所定以上である動き検出ブロックを撮像画像に動きがあったブロックとして検出する。以下、動き検出ブロックのうち輝度値の差分が所定以上あるブロックを、差分検出ブロックと呼ぶ。
動き検出部132は、次に、差分検出ブロックが閾値以上の個数、連結した連結領域が存在するか否かを判定する。若し、連結領域が存在すると判定された場合、当該連結領域において異変が発生したと推測することができる。動き検出部132は、連結領域の範囲を示すアドレス情報を、動き検出結果として出力する。
図6は、被検出画像データ60から動きが検出された場合の例を示す。図6の例では、画面が縦横それぞれ7分割され、被検出画像データ60が7×7=49個の動き検出ブロックに分割されている。また、図6において、差分検出ブロックに斜線を付して示している。この例では、連結領域を判定するための閾値を2とし、2以上の差分検出ブロックが連結している場合に、当該連結領域において異変が発生したと推測する。
例えば、領域61Aは、差分検出ブロックが1個しか含まれていないので、当該領域61Aは、動きは検出されたが、検出された動きは異変ではないと推測する。一方、太枠で囲んだ領域61Bは、2個の差分検出ブロックが連結された連結領域である。そのため、領域61Bにおいて異変が発生したと推測する。また、太枠で囲んだ領域61Cは、斜め方向の連結も含め、6個の差分検出ブロックが連結された連結領域である。そのため、領域61Cにおいても異変が発生したと推測する。
なお、異変が発生したと推測するために、差分検出ブロックの連結数に対して閾値を設けるのは、例えば小動物や昆虫などの動きを異変の発生と誤認することを防ぐためである。すなわち、独立した1個の動き検出ブロックで検出された動きは、小動物や昆虫、あるいは、木の葉などの空中の浮遊物によるものである可能性がある。ある程度以上の範囲に亘って動きが検出された場合に、異変が発生したと推測することで、このような誤認を防ぐことができる。
なお、上述では、ブロックにおいて画素毎の輝度値を積算した結果に基づき動きを検出しているが、これはこの例に限られない。ブロック内における画素毎の輝度値の分布や傾斜などを、被検出画像データと基準画像データとで比較してもよい。
動き検出部132から出力された動き検出結果は、範囲算出部133に供給される。範囲算出部133は、動き検出結果に基づき、被検出画像データ内に存在する全ての連結領域を含む、最小の矩形領域を求める。この最小の矩形領域は、図3を用いて説明したフェレ径に相当する。
図7は、上述した図6の如く差分検出ブロックが存在する被検出画像データ60に対して、フェレ径を求めた例を示す。上述した図6の例では、連結領域61Cの垂直方向の射影が連結領域61Bの垂直方向の射影を含んでいるため、当該矩形領域の垂直方向の射影(垂直フィレ径)は、連結領域61Cの縦方向のブロック幅により規定される。また、図6の例では、連結領域61Bの水平方向の射影と連結領域61Cの水平方向の射影とにより、当該矩形領域の水平方向の射影(水平フェレ径)が規定される。したがって、図7に例示されるように、連結領域61Bおよび連結領域61Cを全て含む、フェレ径62が求められる。
このフェレ径62を示す情報は、マスク合成部134およびフェレ径生成部137に供給される。フェレ径を示す情報は、例えば、動き検出ブロックの位置を示すアドレス情報で示される。
ここで、マスク合成部134、フェレ径合成部136、文字情報合成部138、サイズ変更部139および圧縮部140は、監視センタ30で略リアルタイムにモニタ表示するための画像データと、イベント記憶部106に記録するための画像データとに対する処理を、並列的に行う。これは、監視センタ30でモニタ表示するための画像データと、イベント記憶部106に記録するための画像データとに対し、それぞれ異なる処理を施すことが可能であることを意味する。
以下では、特に記載のない限り、監視センタ30において略リアルタイムにモニタ表示するための画像データと、イベント記憶部106に記録するための画像データとのうち一方の画像データの処理について説明する。
マスク生成部135は、マスクブロック51の画像データを生成する。より具体的には、マスク生成部135は、マスクブロック51として、サイズが上述した画面を分割したブロックと同一で、所定色で塗り潰されたブロック画像データを生成する。マスクブロック51内部を塗り潰す所定色は、例えば灰色が用いられる。勿論、マスクブロック51内部を、灰色以外の別の色で塗り潰してもよい。生成されたマスクブロック51の画像データは、マスク合成部134に供給される。
マスク合成部134は、動き検出部132から供給された画像データに対してマスク生成部135で生成されたマスクブロック51の画像データを合成し、プライバシー領域50を生成する。すなわち、マスク合成部134は、動き検出部132から供給された画像データにおけるプライバシー領域50を、マスク生成部135から供給されたブロック画像データで置き換えた画像データを生成する。
より具体的には、例えば、マスク合成部134は、画像センサ10の起動時や初期化時など所定のタイミングで、記憶部105からシステムデータに含まれるプライバシー領域50の範囲を示すアドレス情報を読み出す。読み出したこのアドレス情報に従い、マスク生成部135から供給されたブロック画像データで、プライバシー領域50に含まれるブロックを順次、置き換えていく。これにより、カメラ100による画像データにおけるプライバシー領域50の部分がマスクブロック51、51、…でマスクされる。
一方、マスク合成部134は、範囲算出部133から上述したフェレ径を示すアドレス情報が供給されると、プライバシー領域50のうち、当該フェレ径とプライバシー領域50とが重複する領域のマスクブロック51、51、…によるマスクを解除した画像データを生成する。
より具体的には、例えば、マスク合成部134は、プライバシー領域50のうち、当該フェレ径とプライバシー領域50とが重複する領域に含まれるブロックについて、マスク生成部135から供給されるブロック画像データでの置き換えを行わない。換言すれば、プライバシー領域50のうち、当該フェレ径と重複しない領域のブロックのみについて、ブロック画像データでの置き換えを行う。こうすることで、図3を用いて説明したように、プライバシー領域50において、異変が発生したと推測される範囲のみ撮像画像を表示させ、他の範囲の撮像画像をマスクすることができる。
なお、マスク合成部134は、フェレ径に含まれるマスクブロック51、51、…によるマスクを解除するか否かを、監視センタ30における略リアルタイムでのモニタ表示のための画像データと、イベント記憶部106に記録するための画像データとに対して、それぞれ設定することができる。この設定は、設定スイッチ104や通信I/F103に接続されるコンピュータなどから行うことができる。
フェレ径生成部137は、範囲算出部133から供給されるフェレ径を示す情報に基づき、フェレ径を表示するためのフェレ径表示画像データを生成する。フェレ径の表示は、カメラ100による撮像画像に対して目立つ色、例えば赤色の枠により行われる。より具体的な例として、上述した図7において、フェレ径62の枠(フェレ径表示)が赤色で表示される。勿論、フェレ径の枠すなわちフェレ径表示は、赤色に限らず、撮像画像に対して目立つ色であれば他の色でもよい。フェレ径生成部137は、フェレ径表示を行うための例えば赤色を表示するフェレ径表示画像データを、フェレ径を示す情報に基づき生成する。生成されたフェレ径表示画像データは、フェレ径表示を行うアドレス情報と共にフェレ径合成部136に供給される。
フェレ径合成部136は、マスク合成部134から供給された画像データに対して、フェレ径生成部137から供給されたフェレ径表示画像データを合成する。すなわち、フェレ径合成部136は、マスク合成部134から供給された画像データにおける、フェレ径表示を行うアドレス情報に示される部分を、フェレ径表示画像データで置き換えた画像データを生成する。
なお、フェレ径合成部136は、フェレ径表示画像データを表示するか否かを、監視センタ30におけるモニタ表示のための画像データと、記録のための画像データとに対して、それぞれ設定することができる。この場合、フェレ径表示画像データを表示するか否かの設定は、上述した、マスク合成部134によるマスクブロック51、51、…によるマスクを解除するか否かの設定に対応してなされる。
本実施形態では、上述したようなマスク合成部134およびフェレ径合成部136での画像合成処理により、カメラ100の撮像画像に基づき被写体に異変が発生したと推測された際に、図3を用いて説明したように、プライバシー領域50において異変が発生したと推測される部分を含む所定範囲において、ブロック画像データによるマスクが解除され撮像画像が直接的に表示されると共に、当該所定範囲を示すフェレ径表示が行われるようにできる。
フェレ径合成部136から出力された画像データは、文字情報合成部138に供給され、時刻情報やシステム情報といった文字によるキャラクタ画像データがスーパーインポーズされる。文字情報合成部138でキャラクタ画像データがスーパーインポーズされた画像データは、映像出力部110に対して出力されると共に、サイズ変更部139に供給される。サイズ変更部139は、供給された画像データに対して必要に応じてサイズ(解像度)変更処理を施す。サイズ変更部139から出力された画像データは、圧縮部140に供給され、所定の圧縮符号化方式で圧縮符号化されて出力される。
圧縮部140は、例えばJPEG(Joint Photographic Experts Group)方式を用いて、フレーム毎に画像データを圧縮符号化する。これに限らず、圧縮部140は、MPEG(Moving Pictures Experts Group)方式といった動画圧縮符号化方式を用いて画像データの圧縮符号化を行ってもよい。圧縮部140で圧縮符号化された画像データは、画像処理部101から出力され、例えば通信I/F103からネットワーク12を介して監視センタ30に送信、あるいは、イベント記憶部106に記録される。
図8は、本実施形態による表示制御処理の一例を示すフローチャートである。このフローチャートによる処理は、監視センタ30における略リアルタイムでのモニタ表示に用いられる画像データと、イベント記憶部106に記録するための画像データとの何れにも適用可能なものである。なお、このフローチャートの処理に先立って、動き検出部132は、記憶部105から予め基準画像データを読み出して画像メモリに格納しておくものとする。また、マスク合成部134は、動き検出部132から供給された画像データに対してマスクブロック51の画像データを合成して、プライバシー領域50を予め生成しているものとする。
先ず、ステップS10で、画像取込部130により、カメラ100から出力された1フレーム分の画像データが取り込まれる。取り込まれた画像データは、動き検出部132に供給される。次のステップS11で、動き検出部132により、画像取込部130から供給された画像データ(被検出画像データ)と予め取得しておいた基準画像データとが比較される。すなわち、上述したように、動き検出部132は、被検出画像データおよび基準画像データを、それぞれ所定サイズのブロックに分割し、ブロック毎に輝度を比較する。
次のステップS12では、ステップS11での比較の結果に基づき差分が所定以上のブロックが存在するか否かが判定される。若し、1フレーム分の被検出画像データ内の全てのブロックで差分が所定以下であると判定された場合、処理がステップS10に戻され、次の1フレームの画像データに対する処理が行われる。
一方、ステップS12で、被検出画像データにおいて差分が所定以下のブロックが検出されたと判定されたら、処理はステップS13に移行され、動き検出部132により、差分を検出した、すなわち動きを検出した差分検出ブロックのアドレスが取得される。次のステップS14で、動き検出部132により、差分を検出した差分検出ブロックが閾値以上の個数で連結しているか否かが判定される。若し、閾値以上の個数で連結している差分検出ブロックが存在しないと判定されたら、処理はステップS10に戻され、次の1フレームの画像データに対する処理が行われる。
一方、ステップS14で、差分検出ブロックが閾値以上の個数で連結していると判定されたら、処理はステップS15に移行される。ステップS15で、動き検出部132から範囲算出部133に対して、差分検出ブロックが連結している連結領域の範囲を示すアドレス情報が供給される。そして、範囲算出部133により、連結領域を全て含む最小の矩形領域であるフェレ径が求められる。フェレ径を示す情報は、マスク合成部134およびフェレ径生成部137に供給される。
フェレ径が求められると、処理はステップS16に移行される。ステップS16では、マスク合成部134により、予め与えられたプライバシー領域50を示す情報と、ステップS15で範囲算出部133から供給されたフェレ径を示す情報とに基づき、フェレ径の内部53にプライバシー領域50が含まれるか否かが判定される。換言すれば、フェレ径とプライバシー領域50とが重複する領域が存在するか否かが判定される。若し、含まれないと判定したら、処理はステップS18に移行される。
一方、ステップS16で、フェレ径の内部53にプライバシー領域50が含まれる、すなわち、フェレ径とプライバシー領域50とが重複する領域が存在すると判定されたら、処理はステップS17に移行される。ステップS17では、マスク合成部134により、プライバシー領域50における、フェレ径の内部53に含まれるマスクブロック51、51、…によるマスクが解除される。すなわち、マスク合成部134は、予め与えられたプライバシー領域50を示す情報と、ステップS15で範囲算出部133から供給されたフェレ径を示す情報とに基づき、フェレ径とプライバシー領域50とが重複する領域を求め、当該領域に含まれるブロックについて、マスク生成部135から供給されるブロック画像データでの置き換えを行わない。マスク解除が行われると、処理はステップS18に移行される。
ステップS18で、フェレ径合成部136により、フェレ径に対してフェレ径表示52が表示される。すなわち、フェレ径合成部136は、範囲算出部133からのフェレ径を示す情報に基づきフェレ径生成部137で生成されたフェレ径表示画像データを、マスク合成部134から供給された画像データに対して合成する。フェレ径表示52が画像データに対して合成されると、一連の表示制御処理が終了される。
なお、上述では、ステップS18でフェレ径表示52が表示されると、一連の表示制御処理が終了するように説明した。この場合、フェレ径表示52およびフェレ径の内部53におけるプライバシー領域50のマスク解除状態が保持されることになる。これに限らず、ステップS18の後に処理をステップS10に戻し、フェレ径表示52およびフェレ径の内部53におけるプライバシー領域50のマスク解除を動的に行うことも可能である。
本実施形態においては、画像センサ10により取得された画像データを表示する表示モードとして、下記の5種類の表示モードが用意されている。
(1)ライブ画像モード
(2)画像モニタモード
(3)記録画像モード
(4)ワンショット画像モード
(5)基準画像モード
(1)のライブ画像モードは、カメラ100で撮像された画像データを略リアルタイムで表示する表示モードである。すなわち、ライブ画像モードでは、画像センサ10においてモニタ表示のための画像データとして画像処理された画像データが、監視センタ30においてモニタ表示される。ライブ画像モードは、所謂通常の監視状態において用いられる。
(2)の画像モニタモードは、画像センサ10から出力される画像データを、映像出力部110を介して外部モニタに表示させる表示モードである。画像モニタモードでは、例えば文字情報合成部138から出力される画像データが用いられる。画像モニタモードにおいて、画像センサ10から出力された画像データは、映像出力部110において、例えばNTSC(National Television System Committee)方式の映像信号に変換されて外部モニタに表示される。画像モニタモードは、例えばカメラ100の画角調整や、設定スイッチ104を用いたプライバシー領域の設定操作などの際に用いられる。
(3)の記録画像モードは、上述した、画像センサ10のイベント記憶部106に画像データを記録するモードである。すなわち、記録画像モードでは、画像センサ10のイベント記憶部106に記録された画像データは、外部ネットワーク21を介して監視センタ30により読み出されて、監視センタ30のモニタに表示される。
(4)のワンショット画像モードは、例えば、監視センタ30やネットワーク12に接続された図示されない遠隔操作装置による画像取り込み命令に応じて、画像取込部130がカメラ100から出力された画像データの1フレーム乃至数フレームを取り込み、取り込んだ画像データを表示する表示モードである。画像取り込み命令に応じて取り込まれた画像データは、例えば監視センタ30に送信され、監視センタ30のモニタに表示される。
(5)の基準画像モードは、上述した動き検出部132における動き検出の基準となる基準画像を表示させるモードである。例えば、記憶部105から読み出した基準画像データを監視センタ30に送信したり、映像出力部110に供給してモニタに表示させる。
本実施形態においては、プライバシー領域のマスクおよびフェレ径表示を行うか否かを、これら表示モードに応じて切り替える。図9は、各表示モードにおけるプライバシー領域のマスクおよびフェレ径表示の有無の例を示す。この図9の例では、(1)ライブ画像モード、(2)画像モニタモードおよび(3)記録画像モードでは、プライバシー領域のマスクおよびフェレ径表示を行う。一方、(4)ワンショット画像モードおよび(5)基準画像モードでは、プライバシー領域のマスクおよびフェレ径表示を常に行わない。
また、(1)ライブ画像モード、(2)画像モニタモードおよび(3)記録画像モードにおけるフェレ径表示の有無は、システムデータの設定により切り替えることが可能とされている。この設定は、設定スイッチ104に対する操作や、ネットワーク12に接続されるコンピュータから行うことが可能である。一方、プライバシー領域のマスクは、これら(1)ライブ画像モード、(2)画像モニタモードおよび(3)記録画像モードにおいて、常に表示する。
なお、上述の各表示モードは、一例であって、これに限られるものではない。画像センサ10がさらに多くの表示モードを持っていてもよいし、少なくとも(1)のライブ画像モードを持っていれば、上述の5種類より少ない表示モードとしてもよい。また、図9に例示した各表示モードにおけるプライバシー領域のマスクおよびフェレ径表示の有無、ならびに、プライバシー領域のマスクおよびフェレ径表示の有無の設定の可否も、この例に限られない。例えば、プライバシー領域のマスクの有無についても、フェレ径と同様に、(1)ライブ画像モード、(2)画像モニタモードおよび(3)記録画像モードにおいて設定可能としてもよい。
また、本実施形態では、ライブ画像モードにおいて、異変検知の際にプライバシー領域50のうちフェレ径に含まれる部分のマスク解除を行うか否かを、監視システム1の警備対象20に対する警備のモードによっても制御する。監視システム1により設定される警備モードとしては、警備状態と警備解除状態とがある。警備対象20の警備モードが警備状態および警備解除状態の何れであるかは、例えば制御装置11により設定され、当該警備対象20の各画像センサ10、10、…に通知される。
ここで、警備状態および警備解除状態についてより具体的に説明する。警備状態とは、センサから検知信号が発せられた場合に、警報を出力したり、監視センタ30に異常を知らせる警報を通報する警備モードである。警備状態の中に、警報出力および監視センタ30への通報の頻度により、高度な警備状態、低度の警備状態など、警備状態を段階的に設けてもよい。一方、警備解除状態とは、センサから検知信号が発せられた場合でも、警報出力や監視センタ30への通報を行わない警備モードである。
また、警備対象20に対して、火災、防犯上の異常といった非常事態が発生する場合がある。この場合、警報出力がなされたり、非常通知装置の操作や、火災センサ、防犯窓センサなどによる異常の通知により、監視センタ30に対して非常事態が通知される。制御装置11は、警備対象20から非常事態の発生が通知されると、非常事態の発生を示す情報を当該警備対象20の各画像センサ10、10、…に通知する。
本実施形態においては、警備状態および警備解除状態の何れの警備モードでも、カメラ100による撮像画像データに基づく異変検知の際には、プライバシー領域50のうちフェレ径に含まれる部分のマスク解除を行うように制御する。
すなわち、画像センサ10では、当該画像センサ10が含まれる警備対象20の警備モードが警備状態および警備解除状態の何れに設定されていても、マスク合成部134は、カメラ100による撮像画像データに基づき異変が検知された場合に、プライバシー領域50のうちフェレ径に含まれるマスクブロック51、51、…によるマスクを解除した画像データを生成すると共に、フェレ径合成部136により、フェレ径に対してフェレ径表示画像データを合成する。
これに限らず、警備モードが警備状態に設定されている場合にのみ、当該異変検知の際にプライバシー領域50のうちフェレ径に含まれる部分のマスク解除、ならびに、フェレ径に対するフェレ径表示52の表示を行うように制御してもよい。この場合、警備モードを警備解除状態に設定した状態で当該異変が検知されても、プライバシー領域50においてマスク解除を行わない。
また、警備モードが警備解除状態であって、且つ、非常事態の発生が通知された場合に、当該異変検知の際にプライバシー領域50のうちフェレ径に含まれる部分のマスク解除、ならびに、フェレ径に対するフェレ径表示52の表示を行うように制御することもできる。この場合、警備モードが警備状態に設定された状態で当該異変検知の際にプライバシー領域50のうちフェレ径に含まれる部分のマスク解除を行うように制御してもよいし、警備状態に設定された状態でマスク解除を行わないように制御することもできる。
1 監視システム
10 画像センサ
11 制御装置
12 ネットワーク
30 監視センタ
50 プライバシー領域
51 マスクブロック
52 フェレ径表示
100 カメラ
101 画像処理部
102 制御部
103 通信I/F
104 設定スイッチ
105 記憶部
110 映像出力部
130 画像取込部
132 動き検出部
133 範囲算出部
134 マスク合成部
135 マスク生成部
136 フェレ径合成部
137 フェレ径生成部

Claims (7)

  1. 撮像手段で監視領域を撮像した画像データを、該監視領域の監視を行う監視センタにネットワークを介して送信する画像センサであって、
    前記撮像手段で撮像した前記画像データの変化を検知する検知手段と、
    前記撮像手段で撮像した前記画像データのうち前記監視領域内の指定領域をマスクするマスク手段と、
    前記マスク手段で前記指定領域をマスクした画像データを前記監視センタに送信する送信手段と
    を有し、
    前記マスク手段は、
    前記検知手段で前記変化が検知された場合に、前記指定領域のうち、該指定領域と該変化が検知された部分を含む所定領域とが重複する領域に対して、前記マスクの解除を行う
    ことを特徴とする画像センサ。
  2. 前記監視領域に対する警備モードとして、警備状態および警備解除状態のうち何れか一方が設定され、
    前記マスク手段は、
    前記警備モードが前記警備状態に設定されている場合に、前記検知手段で前記変化が検知された際に前記マスクの解除を行う
    ことを特徴とする請求項1に記載の画像センサ。
  3. 前記マスク手段は、
    さらに、前記警備モードが前記警備解除状態に設定されている場合に、前記検知手段で前記変化が検知された際に前記マスクの解除を行う
    ことを特徴とする請求項2に記載の画像センサ。
  4. 前記マスク手段は、
    さらに、前記警備モードが前記警備解除状態に設定されており、且つ、非常事態が発生した場合あるいは非常事態が通知された場合に、前記検知手段で前記変化が検知された際に前記マスクの解除を行う
    ことを特徴とする請求項2に記載の画像センサ。
  5. 前記所定領域に対して枠表示を行う枠表示手段をさらに有する
    ことを特徴とする請求項1乃至請求項4の何れか1項に記載の画像センサ。
  6. 撮像手段で監視領域を撮像した画像データを、該監視領域の監視を行う監視センタにネットワークを介して送信する画像センサの画像処理方法であって、
    検知手段が、前記撮像手段で撮像した前記画像データの変化を検知する検知ステップと、
    マスク手段が、前記撮像手段で撮像した前記画像データのうち前記監視領域内の指定領域をマスクするマスクステップと、
    送信手段が、前記マスクステップで前記指定領域をマスクした画像データを前記監視センタに送信する送信ステップと
    を有し、
    前記マスクステップは、
    前記検知ステップで前記変化が検知された場合に、前記指定領域のうち、該指定領域と該変化が検知された部分を含む所定領域とが重複する領域に対して、前記マスクの解除を行う
    ことを特徴とする画像処理方法。
  7. 画像センサが撮像手段で監視領域を撮像した画像データを、該監視領域の監視を行う監視センタにネットワークを介して送信する監視システムであって、
    前記画像センサは、
    前記撮像手段で撮像した前記画像データの変化を検知する検知手段と、
    前記撮像手段で撮像した前記画像データのうち前記監視領域内の指定領域をマスクするマスク手段と、
    前記マスク手段で前記指定領域をマスクした画像データを前記監視センタに送信する送信手段と
    を有し、
    前記マスク手段は、
    前記検知手段で前記変化が検知された場合に、前記指定領域のうち、該指定領域と該変化が検知された部分を含む所定領域とが重複する領域に対して、前記マスクの解除を行い、
    前記監視センタは、
    前記画像センサから送信された前記画像データを表示する表示手段を有する
    ことを特徴とする監視システム。
JP2009298919A 2009-12-28 2009-12-28 画像センサおよび監視システム、ならびに、画像センサの画像処理方法 Pending JP2011138409A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009298919A JP2011138409A (ja) 2009-12-28 2009-12-28 画像センサおよび監視システム、ならびに、画像センサの画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009298919A JP2011138409A (ja) 2009-12-28 2009-12-28 画像センサおよび監視システム、ならびに、画像センサの画像処理方法

Publications (1)

Publication Number Publication Date
JP2011138409A true JP2011138409A (ja) 2011-07-14

Family

ID=44349753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009298919A Pending JP2011138409A (ja) 2009-12-28 2009-12-28 画像センサおよび監視システム、ならびに、画像センサの画像処理方法

Country Status (1)

Country Link
JP (1) JP2011138409A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116208A (ja) * 2014-12-12 2016-06-23 キヤノンマーケティングジャパン株式会社 情報処理システム、制御方法、及びプログラム
JP2017152800A (ja) * 2016-02-22 2017-08-31 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020025219A (ja) * 2018-08-08 2020-02-13 アークレイ株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
SE1951220A1 (en) * 2019-10-25 2021-04-26 Assa Abloy Ab Controlling camera-based supervision of a physical space

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061076A (ja) * 2001-08-10 2003-02-28 Sogo Keibi Hosho Co Ltd 監視装置、監視方法およびその方法をコンピュータに実行させるプログラム
JP2003199098A (ja) * 2001-12-27 2003-07-11 Mitsubishi Electric Corp 監視用画像処理装置
JP2006304250A (ja) * 2005-03-23 2006-11-02 Victor Co Of Japan Ltd 画像処理装置
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP2011130271A (ja) * 2009-12-18 2011-06-30 Canon Inc 撮像装置および映像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061076A (ja) * 2001-08-10 2003-02-28 Sogo Keibi Hosho Co Ltd 監視装置、監視方法およびその方法をコンピュータに実行させるプログラム
JP2003199098A (ja) * 2001-12-27 2003-07-11 Mitsubishi Electric Corp 監視用画像処理装置
JP2006304250A (ja) * 2005-03-23 2006-11-02 Victor Co Of Japan Ltd 画像処理装置
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP2011130271A (ja) * 2009-12-18 2011-06-30 Canon Inc 撮像装置および映像処理装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116208A (ja) * 2014-12-12 2016-06-23 キヤノンマーケティングジャパン株式会社 情報処理システム、制御方法、及びプログラム
JP2017152800A (ja) * 2016-02-22 2017-08-31 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020025219A (ja) * 2018-08-08 2020-02-13 アークレイ株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
JP7253336B2 (ja) 2018-08-08 2023-04-06 アークレイ株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
SE1951220A1 (en) * 2019-10-25 2021-04-26 Assa Abloy Ab Controlling camera-based supervision of a physical space

Similar Documents

Publication Publication Date Title
Kruegle CCTV Surveillance: Video practices and technology
US6091771A (en) Workstation for video security system
KR101544019B1 (ko) 합성 영상을 이용한 화재감지시스템 및 방법
US20070268367A1 (en) Video Surveillance With Satellite Communication Access
KR101502448B1 (ko) 좌우 360도 상하 360도의 화각을 가지는 영상감시 시스템 및 감시방법
JP2003061076A (ja) 監視装置、監視方法およびその方法をコンピュータに実行させるプログラム
JP2008219484A (ja) 監視用カメラ、表示制御装置、および監視システム
JP2011138409A (ja) 画像センサおよび監視システム、ならびに、画像センサの画像処理方法
KR101726315B1 (ko) 이벤트 알림 기능이 있는 네트워크 기반 감시 시스템 및 네트워크 기반 감시 카메라
JP2006287893A (ja) ネットワークカメラシステム
US20160044282A1 (en) Desk-side surveillance
KR20130104582A (ko) 시나리오 기반 출입 통제 시스템 및 방법
KR101077777B1 (ko) 네트워크 카메라 시스템, 그의 영상 데이터 처리 방법 및 그의 운용 방법
KR101731592B1 (ko) 독립형 다중 영상 감시 시스템
KR102165276B1 (ko) 통합관제서버 및 설비를 통합관제하는 방법
GB2450235A (en) 3D display of multiple video feeds
JP2009100259A (ja) 監視カメラおよび画像監視システム
KR101938758B1 (ko) IoT 기반 무인보안시스템
TW202220436A (zh) 基於視訊源中之事件偵測的警報生成
KR20100135103A (ko) 이종 카메라를 이용한 보안 시스템 및 방법
KR101060414B1 (ko) 감시 시스템 및 그 감시 방법
US11049377B2 (en) Alarm dependent video surveillance
KR101061868B1 (ko) 듀얼 감시 카메라를 이용한 모니터링 시스템
KR200492429Y1 (ko) 통합관제서버
KR101934534B1 (ko) 카메라의 동작 상태 판단이 가능한 ip 감시 카메라

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140225