JP5628577B2 - 駐車場監視システムおよび駐車場監視方法 - Google Patents

駐車場監視システムおよび駐車場監視方法 Download PDF

Info

Publication number
JP5628577B2
JP5628577B2 JP2010163033A JP2010163033A JP5628577B2 JP 5628577 B2 JP5628577 B2 JP 5628577B2 JP 2010163033 A JP2010163033 A JP 2010163033A JP 2010163033 A JP2010163033 A JP 2010163033A JP 5628577 B2 JP5628577 B2 JP 5628577B2
Authority
JP
Japan
Prior art keywords
dimensional position
position data
parking lot
person
car
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010163033A
Other languages
English (en)
Other versions
JP2012027546A5 (ja
JP2012027546A (ja
Inventor
伊藤 哲也
哲也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2010163033A priority Critical patent/JP5628577B2/ja
Publication of JP2012027546A publication Critical patent/JP2012027546A/ja
Publication of JP2012027546A5 publication Critical patent/JP2012027546A5/ja
Application granted granted Critical
Publication of JP5628577B2 publication Critical patent/JP5628577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、駐車場監視システムに係り、車両の入出庫を管理し、駐車場における不審人物を監視するのに好適な駐車場監視システムに関する。
従来より、鉄道における駅や駐車場では、不審人物を監視し、セキュリティを高めるために監視カメラが設けられている。また、単に、監視カメラの画像を作業員がチェックするだけではなく、監視カメラの画像データをコンピュータにより処理して、異常を検知するシステムもある。例えば、特許文献1には、駐車場に設置された監視カメラにより、不審者を検知して、中央監視センタに報告し、車両の所有者に警報を発するシステムが開示されている。
また、特許文献2には、駐車スペースごとに、車両感知センサをおいて、違法駐車などの駐車状態を監視する駐車管理装置が開示されている。
特開2009−267679号公報 特開平11−120496号公報
従来の駐車場監視システムは複数台の駐車スペースが見渡せる位置に監視カメラを取り付け、輝度情報から画像処理を用いて、人や車の認識をおこなっていた。
ここで、従来の監視カメラは照射されている自然光の被写体像をレンズで集光し、CCDやCMOSセンサなどのエリアセンサーの受光面で結像させることで、映像を生成している。そのため、各画素から得られる情報は各画素に入射された輝度情報である。
しかしながら、監視カメラにより撮像した画像による画像処理では、物体の表面が床などの背景と比較して、コントラストが低いと人物と背景を分離できずに検知できないことや、屋外の駐車スペースであると日照変化や車の影、飛来物や草木揺れの影響で誤認識をしていたという問題点があった。また、従来技術の特許文献2では、駐車状態を監視するために車両感知センサを置いているが、駐車スペースごとに設置しなければならず、設備も大掛かりになるためコストも大きくなる。
本発明は、上記問題点を解決するためになされたもので、その目的は、簡易なハードウェアで車の入出庫を管理し、不審人物を高精度で監視できる駐車場監視システムを提供することにある。
本発明の駐車場監視システムは、測定時刻を含む3次元位置データを出力する測距センサと、3次元位置データを記録する記録装置と、3次元位置データから得られる測距点情報をデータベースとして有し、アクセスする監視サーバと、監視サーバの計算結果を表示する端末装置とがネットワークにより接続される駐車場監視システムである。
監視サーバは、駐車場内に検知空間を設定し、記録装置から読み出した3次元位置データとして測定された測距点が、検知空間内で所定の数以上であり、所定の時間以上計測されるときに、車または人が滞留したと判定し、端末装置に監視サーバによる判定結果を表示する。
ここで、監視サーバは、車用背景データと人用背景データを有しており、判定にあたって、各々測距点との差分を取ることにより、車と人を検知する。
また、監視サーバは、駐車した車の検知空間を設定し、検知空間内に車が滞留したと判定し、かつ、車の滞留が所定の時間経過した後に、人用背景データを検知空間において局所的に更新し、車が滞留しなくなったと判定した後は、人用背景データを元に戻すようにする。
上記のように、測距センサを用いると、日照変化の影響を殆ど受けずに3次元位置データを取得できるため、昼夜を問わず屋外でも各駐車スペースの車や人の出入りを正確に検知でき、検知対象と飛来物や草木の揺れの3次元位置データが異なれば除外可能となる。
車の検知にあたって、3次元空間の検知空間を設定し、その中の測距点数とその滞留時間から入出庫を検知することで、データ量の多い3次元位置データでも少ない計算量で高速に検知することができる。また、駐車スペース内の人検知において、車が駐車したときに局所的に背景データを変えることで、背景データを高速に更新すると共に、駐車スペースに滞留する人検知に車の入れ替わりが影響せず、さらには他の駐車スペースの背景データに影響を与えることもない。
本発明によれば、簡易なハードウェアで車の入出庫を管理し、不審人物を高精度で監視できるよう駐車場監視システムを提供することができる。
本発明の一実施形態に係る駐車場監視システムの構成図である。 駐車場の運用イメージを示す斜視図である。 測距センサ1のハードウェア構成図である。 カメラ2のハードウェア構成図である。 端末装置9のハードウェア構成図である。 監視サーバ10のハードウェア構成図である。 記録装置11のハードウェア構成図である。 車と人を含んだときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。 車と人を含まない背景のみの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。 図8に示される3次元位置データと図9に示される3次元位置データの差分を取ったときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。 図10に示される差分の3次元位置データのZ軸方向から見たイメージ図である。 駐車場監視システムにおいて設定される検知空間を示した図である。 駐車場監視システムにおいて設定される検知空間と、車と人を表す3次元位置データの差分の関係を示した図である。 車両と人の各々の検知のための検知空間を示した図である。 駐車している車両も背景とみなしたときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。 図8に示される3次元位置データと図15に示される3次元位置データの差分を取ったときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。 測距点情報を示す測距点情報テーブルを示す図である。 端末装置6に表示される操作画面を示す図である。 駐車場監視システムのメイン処理を示すフローチャートである。 フラグとカウンタ初期化の処理210を示すフローチャートである。 3次元位置データ格納の処理203を示すフローチャートである。 車入出庫検知230の処理を示すフローチャートである。 車検知250の処理を示すフローチャートである。 人出入り検知280の処理を示すフローチャートである。 人検知300の処理を示すフローチャートである。 人用背景更新320の処理を示すフローチャートである。
以下、本発明に係る一実施形態を、図1ないし図26を用いて説明する。
先ず、図1ないし図4を用いて本発明の一実施形態に係る駐車場監視システムの構成について説明する。
図1は、本発明の一実施形態に係る駐車場監視システムの構成図である。
図2は、駐車場の運用イメージを示す斜視図である。
図3は、測距センサ1のハードウェア構成図である。
図4は、カメラ2のハードウェア構成図である。
図5は、端末装置9のハードウェア構成図である。
図6は、監視サーバ10のハードウェア構成図である。
図7は、記録装置11のハードウェア構成図である。
本実施形態の駐車場監視システムは、図1に示されるように、測距センサ1、カメラ2、カメラ3、端末装置9、監視サーバ10、記録装置11で構成されている。これらの装置は、全てネットワークインタフェースを装備しており、スイッチングハブ6,8で、EtherNet(登録商標)などのネットワーク7により接続されている。プロトコルとしては、例えば、TCP/IPを用いる。
測距センサ1は、対象物を検知して、その対象物までの距離を測定するセンサである。この測距センサ1は、取得した3次元位置データのタイムスタンプや機器IDなどの情報を添付し、記録装置11宛てにデータを送信する。
カメラ2,3は、駐車場の様子を撮像する装置である。カメラ2,3は、この画像にタイムスタンプや機器IDなどの画像情報を添付して、記録装置11宛てにデータを送信する。なお、本実施形態では、カメラ2は、固定されており、カメラ3は、監視サーバ10の指示に基づいて、雲台により撮像部分を稼動させて、撮像するエリアを選択することできることを意図している。
記録装置11は、測距センサ1で取得した3次元位置データやカメラ2,3で取得した画像を記憶する装置である。この記録装置11は、データに添付された機器IDから装置毎に仕分けし、タイムスタンプにより時系列で整列してメモリに蓄積する。記録装置11は、記録したデータを再配信する事が可能である。本実施形態では、3次元位置データを監視サーバ10宛てに再配信をおこなっている。
監視サーバ10は、測距センサ1により記録されたデータに基づき、車両の入出庫、人の出入りを判定するプログラムを稼動させるるコンピュータシステムである。この監視サーバ10は記録装置11から3次元位置データを受信する。受信した3次元位置データは監視サーバ10でデータを解析し、車や人の出入りを検知し、これをアラームとして、自身に持つデータベースに記録する。
端末装置9は、警備員などが操作して、測距センサ1により記録された3次元位置データ、カメラ2,3で撮像された画像、監視サーバ10により計算された情報などを表示するコンピュータシステムである。この端末装置9は、要求があれば、記録装置11に蓄積された画像や3次元位置データを、日時や監視サーバ10のデータベースのアラームなどから検索し、再生することができる。
図1に示した駐車場監視システムを、屋外の駐車場に適用すると、図2に示されるようになる。測距センサ1を駐車場の交差点に設置し、駐車場の車25〜36、人40〜42を見渡せるように広角レンズを装備したカメラ2とカメラの向きやズームレンズを装備したカメラ3を設置している。測距センサ1の3次元位置データとカメラ2,3の画像は、ネットワーク7経由で記録装置11に常時記録されている。
測距センサ1のハードウェア構成は、図3に示されるように、レーザレーダ121、ミラー131、ハーフミラー132、PD(Photo Diode)122、A/D変換部124、時間計測用IC125、輝度バッファ126、距離バッファ127、SW128、MPU(Micro Processor Unit)123、ネットワークI/F140からなる。
レーザレーダ121は、レーザ光源から発せられたパルス状のレーザ光を照射する。レーザレーダ121からのレーザ光は、ミラー131を通り、ハーフミラー132により、光路を変更されて外部に照射される。外部の被写体により反射されたレーザ光をPD122で受光し、光電変換をおこなって、パルス状の電気信号とする。A/D変換部124は、電気信号をデジタルデータに変換して、輝度バッファ126に蓄積する。時間計測用IC125は、出射した時のパルスの位相と受光した時のパルスの位相差をデジタルデータで距離バッファ127に蓄積する。輝度バッファ126と距離バッファ127のデータは、MPU123により、制御される。
これらの動作をミラー131でレーザをスキャンさせながら全画素に対応する被写体との距離を計測する。ミラーのスキャンは2次元的に行えるため、広範囲にレーザーをスキャンする事ができる。
そして、MPU123は、各点において計測した輝度データ、3次元位置データを、SW128で入力を切替えながら、ネットワークI/F140を介して記録装置11に送信する。本実施形態では、以上の構成のレーザレーダを説明したが、測距センサ1は、このような構成に限定される訳ではなく、各画素の距離(3次元位置情報)が得られるようなセンサであればよい。
カメラ2のハードウェア構成は、図4に示されるように、撮像部241、主記憶部242、符号化部243、ネットワークI/F245が、バス240で結合された形態である。
撮像部241は、レンズで撮像した光信号をデジタルデータに変換する。符号化部243は、撮像部241が出力するデジタルデータを符号化して、JPEGなどの画像データに変換する。主記憶部242は、撮像したデジタルデータ、符号化された画像データを記憶する。ネットワークI/F245は、主記憶部242上の画像をネットワーク7を介して、記録装置11に送信するためのインタフェースである。
カメラ3のハードウェア構成は、図4で示したカメラ2とおおむね同様であり、特に、図示はしなかったが、雲台のための機構、すなわち、カメラ本体を動かす機構が付け加わっている。
端末装置9のハードウェア構成は、図5に示されるように、CPU261、主記憶部262、補助記憶部263、表示I/F264、入出力I/F265、ネットワークI/F266が、バス260で結合された形態である。
CPU261は、端末装置9の各部の制御と、機能を実現するためのプログラムの実行をおこなう。主記憶部262は、DRAMなどの半導体装置で実現され、表示のための画像データやCPU261で実行するプログラムをロードして格納するための中間的なメモリである。補助記憶部263は、HDDやフラッシュメモリなどで実現され、主記憶部262より大容量のメモリであり、検索条件、画像、3次元位置データやプログラムを格納する。表示I/F264は、表示装置270と接続するためのインタフェースである。入出力I/F265は、キーボード280やマウス282などの入出力装置と接続するためのインタフェースである。ネットワークI/F266は、ネットワーク7を介して、録画装置11からの画像を受信したり、監視サーバ10に検索条件を送信したり、監視サーバ10から検索結果を受信するためのインタフェースである。表示装置270は、例えば、LCD(Liquid Crystal Display)などの装置であり、画像を表示する装置である。
図には示さなかったが、補助記憶部263に格納されるプログラムとしては、表示プログラムと、録画装置11と監視サーバ10との通信プログラムなどがある。
監視サーバ10のハードウェア構成は、図6に示されるように、CPU291、主記憶部292、補助記憶部293、表示I/F294、入出力I/F295、ネットワークI/F296が、バス290で結合された形態である。
各部の機能は、おおむね、図5で説明した端末装置9と同様であるが、表示I/F294、入出力I/F295は、必ずしもなくてよい。
図には示さなかったが、補助記憶部293に格納されるプログラムとしては、駐車場監視プログラムと、録画装置11と端末装置9との通信プログラムなどがある。
補助記憶部263に記憶されるデータとしては、測距点情報を含むデータベースがある。
記録装置11のハードウェア構成としては、図7に示されるように、CPU251、主記憶部252、補助記憶部253、ネットワークI/F254が、バス250で結合された形態である。
CPU251は、記録装置11の各部の制御と、機能を実現するためのプログラムの実行をおこなう。主記憶部252は、DRAMなどの半導体装置で実現され、検索のための画像データやCPU251で実行するプログラムをロードして格納するための中間的なメモリである。補助記憶部253は、HDDやフラッシュメモリなどで実現され、主記憶部252より大容量のメモリであり、画像や3次元位置データを格納する。また、測距点情報を含むデータベースを記録装置11が持つようにしてもよい。ネットワークI/F254は、ネットワーク7を介して、カメラ2,3から画像を受信したり、測距センサ1から3次元位置データを受信したり、監視サーバ10に3次元位置データを送信するためのインタフェースである。
次に、図8ないし図16を用いて、本発明の一実施形態に係る駐車場監視システムの車両入出庫と、人の出入りを検知する方法の考え方について説明する。
図8は、車と人を含んだときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。
図9は、車と人を含まない背景のみの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。
図10は、図8に示される3次元位置データと図9に示される3次元位置データの差分を取ったときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。
図11は、図10に示される差分の3次元位置データのZ軸方向から見たイメージ図である。
図12は、駐車場監視システムにおいて設定される検知空間を示した図である。
図13は、駐車場監視システムにおいて設定される検知空間と、車と人を表す3次元位置データの差分の関係を示した図である。
図14は、車両と人の各々の検知のための検知空間を示した図である。
図15は、駐車している車両も背景とみなしたときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。
図16は、図8に示される3次元位置データと図15に示される3次元位置データの差分を取ったときの測距センサ1の3次元位置データを直交座標の空間にマッピングしたイメージ図である。
測距センサ1により、車と人がいるときに、駐車場を測定すると、図8に示される3次元位置データが得られる。また、車と人がいないときには、図9に示されるように、背景のみの3次元位置データが得られる。図9に示されているのは、地面のみであるが、駐車場によっては、背景としてあり得るのは、立木や駐車場の設備である。
に、駐車場を測定すると、図8に示される車と人がいるときの3次元位置データと、車と人がいないときの背景のみの3次元位置データの差分をとると、図10に示されるが3次元位置データが得られる。本実施形態の考え方は、この差分の3次元位置データから車両の入出庫と、人の出入りを検知することである。
車両の入出庫を検知する場合には、駐車場の各々の駐車スペースの位置に合わせて、図12の検知空間50〜検知空間61を設定する。
この検知空間は、図14(a),(b)のように、検知する物の大きさに合わせて設定をおこなう。図14(a)は車に対して検知空間は設定したもので、図14(b)は人に対して検知空間を設定したものである。ここでは車を検知するため、1台の駐車スペースに対して、2.5m(W)x3m(H)x5m(D)程度の立方体を設定している。
本実施形態の駐車場監視システムで用いられるのは、駐車スペースの位置に合わせて取られる図14(a)の車に対しての検知空間である。図12で設定される検知空間を、図10の差分データに重ね合わせると、図13に示されるようになる。
各検知空間内に存在する測距点数をNi、検知したと判定されるための下限数をNminとし、以下の(式1)を満たしたとき車の候補が存在すると仮判定する。ここで、測距点数とは、測距センサ1によって測定された点、すなわち、3次元位置データを得た点の数である。
Ni > Nmin … (式1)
そして、その条件を満たした時からの経過時間をTi、車が滞留していると判定される時間Tcが、以下の(式2)を満たした場合、車が駐車したと判定する。
Ti > Tc … (式2)
測距センサ1の測距点数は、有限であるが、レーザを放射状にスキャンするため、距離が離れれば離れる程、測距領域が広がるため、距離により単位面積当たりの測距点数が異なる。そのため、各検知空間は測距センサからの距離に応じて、測距点の最小数を個別に決定することで対応する。
例えば、検知したと判定されるための下限数Nminの決定は、監視する被写体が収まる検知空間(立方体など)をセンサから見る見かけ上の面積Sminと、距離dにおける測距センサの単位面積当たりの測距点数Ndで決まる。
Nmin = Nd/Smin … (式3)
なお、単位面積当たりの測距点数Ndは、距離dにおける測距センサの測距領域の面積Sdと測距センサの解像度Nkで決定できる。
Nd = Nk/Sd … (式4)
人の出入りを検知する場合には、人と車を分離する必要がある。そのために、検知空間50〜検知空間61内の3次元位置データから背景データを作成する。この背景データは車が駐車したと判定した時にその検知空間のみを局所的に更新する。
このように局所的に更新することで、データ量の多い3次元位置データを少ない計算量で高速に検知することができる。また、駐車スペースに滞留する人検知は車が変わっても影響がなく、局所的に更新するため、他の駐車スペースの背景データに影響を与えることもない。
例えば、検知空間51に車が駐車したと判定した場合、背景データの検知空間51に相当する3次元位置データと取得した検知空間51の3次元位置データを入れ替える。もし、車が出て行った場合は元の検知空間51に入れ替える。
このように、駐車している車と地面を含む図15のような背景データを作成し、このデータと図8の3次元位置データの差分を取ることで、人のみを抽出した図16の3次元位置データとする。
この3次元位置データで駐車スペースの検知空間に侵入した人などを検知する事ができる。検知は人用に設定した最小数Nminを設定し、車同様(式1)と(式2)の条件を満たす条件で判定をおこなう。
設定した検知空間で人を検知すると、監視サーバ10内のデータベースにアラームとして、その3次元位置、発生時刻などを記録すると共に、検知した3次元位置から最適なカメラ21のカメラの向き、レンズのズーム倍率などを決定し、その場面を撮影する。
次に、図17を用いてデータベースに格納される測距点情報について説明する。
図17は、測距点情報を示す測距点情報テーブルを示す図である。
測距点情報テーブルは、車両の入出庫と人の出入りを表すテーブルである。
測距点情報は、例えば、図17のようなデータベースのテーブルであると仮定すると、時刻、駐車スペースID、入庫、出庫、人出入り、測距点数、検知最大点(X1,Y1,Z1)、検知最小点(X2,Y2,Z2)、測距点数などからなる。
時刻は、イベントが発生した時刻を表すフィールドである。駐車スペースIDは、駐車スペースのID番号であり、各々は、検知空間と一致する。
入庫は、車両が検知空間(対象の駐車スペース)に入り、一定時間を経過したときを示すイベントが発生したことを示すフィールドである。出庫は、車両が検知空間(対象の駐車スペース)を出て、一定時間を経過したときを示すイベントが発生したことを示すフィールドである。人出入りは、人が検知空間(対象の駐車スペース)に一定時間滞在したことを示すフィールドである。
本実施形態では、図12で説明したように、検知空間は、対象の駐車スペースに取れられているため、例えば、通路上の人は、検知されない。また、人が、一定時間、検知空間に滞留しないと、人が滞在したものとみなさないため、例えば、車のドライバが一時的に人が車の外の駐車スペースに入っても検知されない。これは、車の外の駐車スペースに長時間いる人物は、不審な人物と考えられるからである。もちろん、ドライバやその他の乗員が車の中に入ると、人としては検知されなくなる。
検知最大点は、検知空間内で検知した3次元位置データで、各々最大のX,Y,Zの値を示すフィールドである。検知最小点は、検知空間内で検知した3次元位置データで各々最小のX,Y,Zの値を示すフィールドである。測距点数は、検知空間内にある測距点数を示すフィールドである。
次に、図18を用いて駐車場監視システムのユーザインタフェースについて説明する。
図18は、端末装置6に表示される操作画面を示す図である。
この画面で検索をおこなうには、カレンダー100で検索日を指定し、開始日114と終了日115に検索開始日時と終了日時を設定し、開始日の開始時刻116と終了日の終了時刻117に設定する。
入庫102と出庫103はチェックボックスとなっており、この画面の例では入庫がチェックされている。最小測距点数104は、検知空間内で人を検知するため最小測距点数を設定する。システムは、この入力された点数よりも測距点数が多くなったときには、その検知空間で人が検知されたものと判断する。
駐車スペース105は、検索の対象となる駐車スペースのIDを選択するリストである。また、図には示さなかったが全ての駐車スペースを検索対象とするときには、「ALL」の項目を選択することにする。
これらの条件を設定後に、検索開始ボタン106をマウスなどでクリックすることにより、監視サーバ10のデータベースが検索されて、検索結果107のような結果を得る。この画面は、駐車スペース1の駐車入庫時間が13:10:20の画像と3次元位置情報を示している。測距センサ1の3次元位置データとカメラ2,3の画像は、記録装置11に記録されているが、このデータを監視サーバ10のデータベースのレコードを検索キーとして、検索をかけることができる。
カメラA画像108は、検知時刻におけるカメラ2が撮像した画像、カメラB画像109は、検知時刻におけるカメラ3が撮像した画像である。3次元位置情報110は、検知した時の測距センサ22の3次元位置情報を直交座標のイメージにして表示している。
入庫/出庫111は検索した駐車スペース1で入庫または出庫した時間のリスト、滞留人物は駐車スペース1で滞留した人物の検知を開始した時刻を検索したリストで示している。測距点情報113は、駐車スペース1の駐車入庫時間が13:10:20の図17に示した測距点テーブルに格納されている検知最大点、検知最小点、測距点数を示している。
次に、図19ないし図26を用いて駐車場監視システムの車両の入出庫と、人の出入りを検知し、データベースに格納する処理について説明する。
先ず、図19を用いて駐車場監視システムのメイン処理について説明する。
図19は、駐車場監視システムのメイン処理を示すフローチャートである。
始めに、車用背景に用いる3次元位置データと人用背景に用いる3次元位置データを、背景データとして読み出す(ステップ201)。車用背景に用いる3次元位置データは、図9に示したものであり、人用背景に用いる3次元位置データは、図15に示したものである。以下、各々の「車用背景」と「人用背景」と略すことにする。初期データとしては、人用背景にも、車が存在していないと仮定したデータを用いる。この背景データは、予め計測しておいたものを用いる。
ステップ202とステップ204との間は、無限ループになっている。
先ず、フラグとカウンタの初期化をおこなう(ステップ210)これは、システムで使用する検知空間idxの車検知用のフラグFc[idx]、人検知用のフラグFh[idx]、車用測距点数カウンタCc[idx]、人用測距点カウンタCh[idx]を初期化する処理である。これらのフラグとカウンタは配列になっており、各検知空間をidxによって指定する。
次に、3次元位置データを格納する(ステップ220)。これは、測距点インデックスMについて、X[M],Y[M],Z[M]に、最新の3次元位置データを測距センサから取得し、直交座標に変換した後、3次元位置を配列X[M],Y[M],Z[M]に格納する処理である。X[M],Y[M],Z[M]は、測距点インデックスMが示す3次元位置のX座標、Y座標、Z座標を示している。
次に、車の入出庫検知をおこなう(ステップ230)これは、駐車スペースに車が入ったか否かを判定する処理である。次に、人の出入り検知をおこなう(ステップ280)。これは、駐車スペースに人が滞留したか否かを判定する処理である。
次に、図20を用いてフラグとカウンタ初期化210の処理について説明する。
図20は、フラグとカウンタ初期化の処理210を示すフローチャートである。
先ず、検知空間インデックスidx=1として、検知空間インデックスを1に初期化する(ステップ211)。
ステップ212は、検知空間の最大数Idmax以上になったらループを抜けることを示し、ステップ218でループが終了することを示している。
先ず、Fc[idx]=0として、車検知用のフラグFc[idx]をゼロにする(ステップ213)。
次に、Fh[idx]=0として、人検知用のフラグFh[idx]をゼロにする(ステップ214)。
次に、Cc[idx]=0として、車用のカウンタCc[idx]をゼロにする(ステップ215)。
次に、Ch[idx]=0として、人用のカウンタCc[idx]をゼロにする(ステップ216)。
次に、idx=idx+1として、検知空間インデックスidxを1インクリメントする(ステップ217)。
次に、図21を用いて3次元位置データ格納220の処理について説明する。
図21は、3次元位置データ格納の処理220を示すフローチャートである。
測距点インデックスM=1として、3次位置データの全ての測距点を一意に示すインデックスMを1に初期化する(ステップ221)。
ステップ222は、測距点のインデックスが測距点の最大数Mmaxを超えるまでループし、ステップ225でループを終了することを示している。
先ず、測距点インデックスMについて、X[M],Y[M],Z[M]に、最新の3次元位置データを測距センサから取得し、直交座標に変換した後、3次元位置を配列X[M],Y[M],Z[M]に格納する(ステップ223)。
次に、M=M+1として、測距点インデックスを1インクリメントする(ステップ224)。
次に、図22を用いて車入出庫検知230の処理について説明する。
図22は、車入出庫検知230の処理を示すフローチャートである。
先ず、最新の3次元位置データから車用背景の差分を取り、図10のような3次元位置データを得る(ステップ231)。
次に、車検知処理をおこなう(ステップ250)。これは、検知空間idxに車が駐車しているか否かを検知する処理である。
次に、検知空間インデックスidx=1として、検知空間インデックスを1に初期化する(ステップ233)。
ステップ234は、検知空間の最大数Idmax以上になったらループを抜け、ステップ244でループを終了することを示している。
次に、Cc[idx]>最小測距点数Ncmin[idx]として、検知空間idx内の測距点数が最小測距点数Ncmin[idx]を超えたか否かを判定し(ステップ235)、車の候補が存在するか否かを調べる。
ステップ235の条件が真で、タイマTc[idx]が開始していないときには、タイマTc[idx]を開始する(ステップ236)。タイマTc[idx]が既に開始しているときには、なにもしない。
ステップ235の条件が偽なら、タイマTc[idx]が開始しているときには、タイマTc[idx]を停止する(ステップ237)。タイマTc[idx]が既に停止しているときには、なにもしない。
ここで、タイマTc[idx]は車の候補の滞留時間を計測するためのタイマの配列であり、各検知空間をidxによって指定する。
次に、Fc[idx]=0として、最小測距点数を超えなかった場合に車用検知フラグFc[idx]をゼロとして(ステップ238)、車がその検知空間(駐車スペース)に駐車していない事を示し、ステップ243に移る。
次に、タイマTc[idx]>滞留時間tcとして、車の候補の滞留時間が滞留の判定時間tcを超えたか否かを判定し(ステップ239)、その検知空間に車が駐車したか否かを決定する。
ステップ239の条件が真なら、ステップ240に移る。
次に、Fc[idx]=0?として、車が駐車してから、初めて滞留時間を超えたか否かを判定する(ステップ240)。
ステップ240の条件が真なら、ステップ241に移り、偽ならステップ243に移る。
次に、図17に示されるような測距点情報をデータベース(DB)に格納する(ステップ241)。
次に、Fc[idx]=1として、車が駐車しており、測距点情報をデータベースに格納したことを示すフラグを設定する(ステップ242)。
次に、idx=idx+1として、検知空間インデックスidxを1インクリメントする(ステップ243)。
次に、図23を用いて車検知250の処理について説明する。
図23は、車検知250の処理を示すフローチャートである。
先ず、測距点インデックスM=1として、3次位置データの全ての測距点を一意に示すインデックスMを1に初期化する(ステップ251)。
ステップ252は、測距点のインデックスが測距点の最大数Mmaxを超えるまでループし、ステップ260でループを終了することを示している。
先ず、検知空間インデックスidx=1として、検知空間インデックスを1に初期化する(ステップ253)。ステップ254は、検知空間の最大数Idmax以上になったらループを抜け、ステップ258でループを終了することを示している。
次に、測距点X[M],Y[M],Z[M]は検知空間内か?として、X[M],Y[M],Z[M]が示す1つの3次元位置が検知空間内にあるか否かを判定する(ステップ255)。
ステップ255の条件を満たすとき、ステップ256に行き、満たさないときには、ステップ257に行く。
ステップ255の条件を満たすとき、Cc[idx]=Cc[idx]+1として、検知空間idxの車用カウンタCc[idx]の値を1増加する(ステップ256)。
次に、idx=idx+1として、検知空間インデックスidxを1インクリメントする(ステップ257)。
次に、M=M+1として、測距点インデックスを1インクリメントする(ステップ259)。
次に、図24を用いて人出入り検知280の処理について説明する。
図24は、人出入り検知280の処理を示すフローチャートである。
先ず、最新の3次元位置データから人用背景の差分を取り、図16に示されるような3次元位置データを得る(ステップ281)。
次に、人を検知する処理をおこなう(ステップ300)。人検知処理は、検知空間idxに人がいるか否かを検知する処理である。
次に、検知空間インデックスidx=1として、検知空間インデックスを1に初期化する(ステップ283)。
ステップ284は、検知空間の最大数Idmax以上になったらループを抜け、ステップ295でループを終了することを示している。
次に、人用背景の更新をおこなう(ステップ320)。
次に、Ch[idx]>最小測距点数Nhmin[idx]として、検知空間idx内の測距点数が最小測距点数Nhmin[idx]を超えたか否かを判定し(ステップ286)、人の候補が存在するかを調べる。
ステップ286の条件が真なら、ステップ297に行き、ステップ286の条件が偽なら、ステップ288に移る。
ステップ286の条件が偽なら、タイマTh[idx]が開始しているときには、タイマTh[idx]を停止する(ステップ288)。タイマTh[idx]が既に停止しているときには、なにもしない。
ここで、タイマTh[idx]は人の候補の滞留時間を計測するためのタイマの配列であり、各検知空間をidxによって指定する。
次に、Fh[idx]=0として、最小測距点数を超えなかった場合に人用検知フラグFh[idx]をゼロとして(ステップ289)、人の候補が検知空間内に滞留していない事を示し、ステップ294に移る。
ステップ286の条件が真なら、Fc[idx]=1?として、検知空間に車が駐車しているか否かを判定する(ステップ297)。
この判定条件を用いることにより、車が駐車したときにその駐車スペースに滞留する人の検知をおこない、その駐車スペースに駐車していないときは駐車途中などの車を誤って人として検知しないようにしている。
ステップ297の条件が真なら、ステップ287に移り、偽なら、ステップ294に移る。
ステップ297の条件が真で、タイマTh[idx]が開始していないときには、タイマTh[idx]を開始する(ステップ287)。タイマTh[idx]が既に開始しているときには、なにもしない。
次に、タイマTh[idx]>滞留の判定時間thとして、人の候補の滞留時間が人が滞留したとされる判定時間thを超えたか否かを判定し(ステップ290)、その検知空間に人が滞留したかを決定する。
ステップ290の条件が真なら、ステップ291に移り、偽なら、ステップ294に移る。
ステップ290の条件が真なら、Fh[idx]=0?として、人が滞留したと判定してから、初めて滞留時間を越えたか否かを判定している(ステップ291)。
ステップ291の条件が真なら、図17に示されるような測距点情報をデータベース(DB)に格納する(ステップ292)。
次に、Fh[idx]=1として、人が滞留し、測距点情報をデータベースに格納したことを示すフラグを設定する(ステップ293)。
次に、idx=idx+1として、検知空間インデックスidxを1インクリメントする(ステップ294)。
次に、図25を用いて人検知300の処理について説明する。
図25は、人検知300の処理を示すフローチャートである。
先ず、測距点インデックスM=1として、3次位置情報の全ての測距点を一意に示すインデックスMを1に初期化する(ステップ301)。
ステップ302は、測距点のインデックスが測距点の最大数Mmaxを超えるまでループし、ループの終了はステップ310になることを示している。
先ず、検知空間インデックスidx=1として、検知空間インデックスを1に初期化する(ステップ303)。
ステップ304は、検知空間の最大数Idmax以上になったらループを抜け、ステップ308でループを終了することを示している。
次に、測距点X[M],Y[M],Z[M]は検知空間内か?として、X[M],Y[M],Z[M]が示す1つの3次元位置が検知空間内にあるか否かを判定する(ステップ305)。
次に、Ch[idx]=Ch[idx]+1として、検知空間idxの人用カウンタCh[idx]の値を1インクリメントする(ステップ306)。
次に、idx=idx+1として、検知空間インデックスidxをインクリメントする(ステップ307)。
次に、M=M+1として、測距点インデックスを1インクリメントする(ステップ309)。
次に、図26を用いて人用背景更新320の処理を示すフローチャートである。
図26は、人用背景更新320の処理を示すフローチャートである。
先ず、Fc[idx]=1?として、検知空間(駐車スペース)に車が駐車しているか否かを判定する(ステップ321)。
ステップ321の条件が真なら、ステップ322に移り、偽なら、ステップ325に移る。
ステップ321の条件が真で、タイマTb[idx]が開始していないときには、タイマTb[idx]を開始する(ステップ322)。タイマTb[idx]が既に開始しているときには、なにもしない。
ステップ321の条件が偽なら、タイマTb[idx]が開始しているときには、タイマTb[idx]を停止する(ステップ235)。タイマTb[idx]が既に停止しているときには、なにもしない。
タイマTb[idx]は車を駐車し、人が立ち去るまでの時間を計測するためのタイマの配列であり、各検知空間をidxによって指定する。
そして、人用背景の検知空間idx部分を元に戻す(ステップ326)。これは、車が駐車していないために、人用背景の検知空間idx部分を更新前に戻す処理である。
次に、Tb[idx]>立去り時間Tbmaxとして、タイマの値が人が立去ると判定される時間Tbmaxを超えたか否かを判定する(ステップ323)。
ステップ323の条件が真なら、ステップ324に移り、偽なら、ステップ327で処理を終了する。
ステップ323の条件が真なら、人用背景の検知空間idx部分の入替をおこなう(ステップ324)。これは、人用背景の検知空間idxの空間だけを最新の3次元位置データと入替える処理である。すなわち、車が人が立去ると判定される時間より長く、検知空間にいると、その駐車スペースに車がいると判断して、その検知空間に関する人用の背景を更新する。
1…測距センサ
2,3…カメラ
6,8…スイッチングハブ
7…ネットワーク
9…端末
10…監視サーバ
11…記録装置
25,27〜33,31〜34…駐車している車
40〜42…人
50〜61…検知空間
70…車用検知空間
71…車の3次元位置データ
72…人用検知空間
73…人の3次元位置データ
100…カレンダー
102…入庫選択チェックボックス
103…出庫選択チェックボックス
104…最小測距点数
105…駐車スペース選択ボックス
106…検索開始ボタン
107…検索結果
108…カメラA画像
109…カメラB画像
110…3次元位置情報
111…入庫/出庫検索リスト
112…滞留人物検索リスト
113…測距点情報
114…検索開始日
115…検索終了日
116…検索開始時刻
117…検索終了時刻。

Claims (4)

  1. 測定時刻を含む3次元位置データを出力する測距センサと、前記3次元位置データを記録する記録装置と、前記3次元位置データから得られる測距点情報をデータベースとして有する監視サーバと、前記監視サーバの計算結果を表示する端末装置と、がネットワークにより接続される駐車場監視システムにおいて、
    前記監視サーバは、駐車場内に検知空間を設定し、前記記録装置から読み出した3次元位置データとして測定された測距点が、前記検知空間内で所定の数以上であり、所定の時間以上計測されるときに、車または人が滞留したと判定し、
    前記端末装置に、前記監視サーバによる判定結果を表示する駐車場監視システムであって、前記監視サーバは、車用背景データと人用背景データをそれぞれ有し、
    各々測距点との差分を取ることにより、車と人をそれぞれ検知することを特徴とする駐車場監視システム。
  2. 前記監視サーバは、前記検知空間内に車が滞留したと判定すると、前記人用背景データを車の滞留が判定された前記検知空間において局所的に更新し、その後、車が滞留しなくなったと判定すると、前記人用背景データを滞留と判定されなくなった前記検知空間内において局所的に更新前の前記人用背景データに戻すことを特徴とする請求項記載の駐車場監視システム。
  3. 測定時刻を含む3次元位置データを出力する測距センサと、前記3次元位置データを記録する記録装置と、前記3次元位置データから得られる測距点情報をデータベースとして有する監視サーバと、前記監視サーバの計算結果を表示する端末装置と、がネットワークにより接続される駐車場監視システムにおいて、
    駐車場内に検知空間を設定し、前記記録装置から読み出した3次元位置データとして測定された測距点が、前記検知空間内で所定の数以上であり、所定の時間以上計測されるときに、車または人が滞留したと判定し、判定結果を表示し、
    前記監視サーバは、車用背景データと人用背景データをそれぞれ有し、
    各々測距点との差分を取ることにより、車と人をそれぞれ検知することを特徴とする駐車場監視方法。
  4. 前記検知空間内に車が滞留したと判定すると、前記人用背景データを車の滞留が判定された前記検知空間において局所的に更新し、車が滞留しなくなったと判定すると、前記人用背景データを滞留と判定されなくなった前記検知空間において局所的に更新前の前記人用背景データに戻すことを特徴とする請求項5記載の駐車場監視方法。
JP2010163033A 2010-07-20 2010-07-20 駐車場監視システムおよび駐車場監視方法 Active JP5628577B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010163033A JP5628577B2 (ja) 2010-07-20 2010-07-20 駐車場監視システムおよび駐車場監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010163033A JP5628577B2 (ja) 2010-07-20 2010-07-20 駐車場監視システムおよび駐車場監視方法

Publications (3)

Publication Number Publication Date
JP2012027546A JP2012027546A (ja) 2012-02-09
JP2012027546A5 JP2012027546A5 (ja) 2013-08-29
JP5628577B2 true JP5628577B2 (ja) 2014-11-19

Family

ID=45780429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010163033A Active JP5628577B2 (ja) 2010-07-20 2010-07-20 駐車場監視システムおよび駐車場監視方法

Country Status (1)

Country Link
JP (1) JP5628577B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6110183B2 (ja) * 2013-03-29 2017-04-05 株式会社デンソー 防犯システム
CN103914993B (zh) * 2014-04-24 2016-02-17 银江股份有限公司 一种基于磁场传感器的智能停车检测方法
CN104183155A (zh) * 2014-08-12 2014-12-03 广东艾科技术股份有限公司 一种停车场车位探测装置及探测方法
JP7308551B2 (ja) * 2020-12-28 2023-07-14 株式会社ベネ・エルヨン 駐車場管理システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962842A (ja) * 1995-08-21 1997-03-07 Fujitsu General Ltd 駐車場管理システム
JP2001101574A (ja) * 1999-09-27 2001-04-13 Omron Corp レーザセンサを用いた車両検出装置

Also Published As

Publication number Publication date
JP2012027546A (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
JP7199627B2 (ja) 高精細準リアルタイムマップ生成用の撮像機器を備える車両のシステム
US7236176B2 (en) Surveillance management system
KR101786583B1 (ko) 교통 영상을 제공하는 장치
US20060170772A1 (en) Surveillance system and method
JP2008167429A (ja) カメラ・タンパリング検出
US10950104B2 (en) Monitoring camera and detection method
JP5628577B2 (ja) 駐車場監視システムおよび駐車場監視方法
US9064406B1 (en) Portable and persistent vehicle surveillance system
JP2018180810A (ja) 交通違反検知装置、システム、交通違反検知方法およびプログラム
CN103929592A (zh) 全方位智能监控设备及方法
KR102230552B1 (ko) 움직임 감지와 레이더 센서를 이용한 탐지 객체 위치 산출 장치
WO2012137367A1 (ja) 画像蓄積システム
WO2009137616A2 (en) Novel sensor apparatus
JP3388087B2 (ja) 物体検出装置
JP7128577B2 (ja) 監視装置
JP2016085602A (ja) センサ情報統合方法、及びその装置
JP4618062B2 (ja) 監視装置、監視システム、および監視方法
KR102575271B1 (ko) Pos 기기와 연동된 감시 카메라 및 이를 이용한 감시 방법
US20040150715A1 (en) Image-capture event monitoring
JP5865584B2 (ja) 特定人物検知システムおよび検知方法
KR20150092402A (ko) 영상 메타데이터 태깅 및 무선통신 기반의 스마트 차량용 카메라 기술과 그 장치를 이용한 정보 거래 서비스 제공 시스템 및 방법
JPWO2018062368A1 (ja) 撮像装置および撮像システム
JP7176868B2 (ja) 監視装置
US10970982B2 (en) Video surveillance apparatus and method
Picus et al. Novel Smart Sensor Technology Platform for Border Crossing Surveillance within FOLDOUT

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141002

R150 Certificate of patent or registration of utility model

Ref document number: 5628577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250