JP7128568B2 - 監視装置 - Google Patents

監視装置 Download PDF

Info

Publication number
JP7128568B2
JP7128568B2 JP2017170322A JP2017170322A JP7128568B2 JP 7128568 B2 JP7128568 B2 JP 7128568B2 JP 2017170322 A JP2017170322 A JP 2017170322A JP 2017170322 A JP2017170322 A JP 2017170322A JP 7128568 B2 JP7128568 B2 JP 7128568B2
Authority
JP
Japan
Prior art keywords
mask
unit
grids
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017170322A
Other languages
English (en)
Other versions
JP2019046295A (ja
Inventor
健一 新房
恭佑 磯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017170322A priority Critical patent/JP7128568B2/ja
Publication of JP2019046295A publication Critical patent/JP2019046295A/ja
Application granted granted Critical
Publication of JP7128568B2 publication Critical patent/JP7128568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

この発明は、監視領域に存在する対象物を認識する監視装置に関するものである。
従来、カメラ画像を用いて対象物を検知および認識する技術が存在する。カメラ画像は2次元データであることから、当該カメラ画像から得られる情報も2次元座標、輝度、および、色などに限定される。従来技術の多くは輝度背景差分方式を用いて、監視領域内の変化領域を抽出して対象物を認識している。しかし、変化領域は、対象物以外の物体等を検知したことによっても抽出され得る。対象物以外の物体等を検知したことによって抽出された変化領域は、誤報が生じる原因となる。そこで、不要な検知要素である対象物以外の物体等が検知されないように、不要な検知要素に対して2Dマスクによる遮蔽を行うことによって、誤報を防止する技術が一般的に採用されている。
例えば、特許文献1には、2Dマスクとして、櫛形マスクを使用して、路面の水たまりのような不要な検知要素が検知されないようにする監視用画像処理装置が開示されている。特許文献1に開示された装置では、例えば、不要な検知要素である水たまりの水紋のような小さい動きと、当該水たまりの前を横切る発報対象である対象物(特許文献1においては人物)の大きな動きとを、「水紋は、人物と比較しある特定の場所範囲に不定期にあらわれる」、「水紋は、人物と比較し比較的小さな変化領域である」、および、「水紋は、人物と比較し、横向き櫛形マスクで分断されやすい形状を持つ」という、性質の差を利用することで区別する。
特開平10-105687号公報
しかしながら、2次元データであるカメラ画像に対して2Dマスクによる遮蔽を行う従来の技術では、不要な検知要素と発報対象とがカメラの視野上で重なっている場合、あるいは、両者がカメラの視野上で近接した位置に存在する場合、不要な検知要素とともに発報対象まで遮蔽されてしまい、発報対象の見落しが生じるという課題があった。
また、特許文献1に開示された技術においても、カメラ画像上における不要な検知要素と発報対象との大きさの差がない場合は、櫛形マスクで分別できる性質の差が小さくなり、不要な検知要素と発報対象とを精度よく区別することができず、依然として発報対象の見落としが生じるという課題があった。
この発明は、上記のような課題を解決するためになされたもので、発報対象の見落としを防止するとともに、誤報を防止することができる監視装置を提供することを目的とする。
この発明に係る監視装置は、監視領域を測定した3次元レーザスキャナの測定結果から、監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部と、測定結果から過去の距離データを取得し、比較データに変換する比較データ演算部と、現データと比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、変化領域抽出部が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部と、3Dマスクは、監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に分割された複数のグリッドのうちの特定の複数のグリッドに対して設定されるものであり、複数のグリッドからなる3Dマスクの形状および、グリッドで示される諸元が指定された入力情報に基づき、監視領域としての空間を仮想的に分割したキューブ状の複数のグリッドのうち、指定された形状を形成する複数のグリッドを特定することで3Dマスクを設定する3Dマスク設定手段とを備えたものである。
この発明によれば、発報対象の見落としを防止するとともに、誤報を防止することができる。
実施の形態1に係る監視装置の構成を示すブロック図である。 3次元レーザスキャナの構成を示す図である。 3次元レーザスキャナの分散機構を示す説明図である。 実施の形態1に係る監視装置の動作を示すフローチャートである。 一般的なカメラで撮影した画像において、2Dマスクを用いて誤報を避ける方法について説明するための図である。 実施の形態1において、3次元レーザスキャナの視野を仮想的に複数のグリッドに分割した立体モデルの一例を示す図である。 実施の形態1において、3次元レーザスキャナの視野にある床、木および歩行者が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例であって、図7Aは、3次元レーザスキャナ、床、木および歩行者を横から見た位置関係を示すモデルであり、図7Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図7Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。 例えば、3次元レーザスキャナの視野にある床、木および歩行者が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、2Dマスクを設定した場合のイメージの一例であって、図8Aは、3次元レーザスキャナ、床、木および歩行者を横から見た位置関係を示すモデルであり、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図8Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。 実施の形態1において、3次元レーザスキャナの視野にある床、木および歩行者が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、3Dマスクを設定したイメージの一例であって、図9Aは、3次元レーザスキャナ、床、木および歩行者を横から見た位置関係を示すモデルであり、図9Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図9Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。 実施の形態1に係る監視装置の認識処理部による判定処理を示すフローチャートである。 図11A,図11Bは、この発明の実施の形態1に係る監視装置のハードウェア構成の一例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る監視装置100の構成を示すブロック図である。
監視装置100は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、および、3Dマスク部70で構成されている。3Dマスク部70は、マスク識別部701、および、書換部702を備える。
なお、図1において、監視装置100外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、監視装置100の上位にある装置であり、ブザー等の発報処理を行うPC(Personal Computer)300を記載している。なお、ここでは、監視装置100の上位にある装置は、一例としてPC300としているが、監視装置100の上位にある装置は、監視装置100における報知処理に基づき発報処理を行うことができるものであればよく、例えば、音声出力装置としてもよい。監視装置100における報知処理の詳細は後述する。
3次元レーザスキャナ10は、スキャン範囲に存在する対象物201等の3次元情報を取得して、当該対象物201等までの距離等を計測する。
ここで、図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。したがって、図2の例における3次元レーザスキャナ10は、X方向に6画素分およびY方向に2画素分で、全12画素分の解像度を有しているといえる。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
レーザ受光ユニット16は、反射対象で反射されたレーザ反射光15を受光し、発光から受光までの時間差に基づいて、反射対象までの距離を算出し、距離データとする。図2の例では、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散された照射位置全てに対して、個別に距離を算出し、距離データとする。さらに、レーザ受光ユニット16は、分散された照射位置全てに対して、照射した光量と受光した光量の比率に基づいて反射対象の各ポイントにおける反射率を算出し、強度データとする。レーザ受光ユニット16で算出された距離データおよび強度データは、図1で示した現データ演算部20および比較データ演算部30に出力される。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による点群データ17の現データ演算部20、および、比較データ演算部30への出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20、および、比較データ演算部30へ出力する。
次に、回転ミラーを用いた分散機構13の詳細について、図3を参照しながら説明を行う。分散機構13は、第1の回転ミラー13a、第1のモータ13b、第2の回転ミラー13cおよび第2のモータ13dで構成されている。第1の回転ミラー13aは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、レーザ光パルス12を第1の回転ミラー13aの面に対して水平方向に分散する。水平方向に分散された水平分散レーザ光パルス13eは、常に同一の角度で分散される。第1のモータ13bは、第1の回転ミラー13aを駆動させる駆動源である。第2の回転ミラー13cは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、水平分散レーザ光パルス13eをさらに垂直方向に分散する。垂直方向に分散された垂直分散レーザ光パルス13fは、常に同一の角度で分散される。第2のモータ13dは、第2の回転ミラー13cを駆動させる駆動源である。
以上の動作により、3次元レーザスキャナ10は、以下に示すX,Y,およびZの3次元情報を得る。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
水平方向座標Xは、各画素の水平方向位置を示す値であり、垂直方向座標Yは、各画素の垂直方向位置を示す値である。図2の例では、水平方向座標Xは1~6の範囲の整数、垂直方向座標Yは1~2の範囲の整数となる。また、距離データZは、各画素の位置において得られたZ軸方向の奥行き情報である。距離データZについては、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで特定される複数の画素に対して、それぞれ1つずつ測定された距離データZが得られる。図2の例では、12個の画素それぞれについて、対応する距離データZが得られる。
したがって、3次元情報における、水平方向座標Xと垂直方向座標Yと距離データZとの複数の組み合わせについては、それぞれの組み合わせが、ある特定の空間位置を示すものである。
3次元情報には、Z軸方向の奥行き情報である距離データZが含まれているため、対象物が3次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、Z軸方向の移動量を用いて差分を得ることができる。
現データ演算部20は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、監視領域、すなわち、3次元レーザスキャナ10の測定範囲における現時点の距離データを示す現データとして現データ蓄積部21に蓄積させる。
比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去10フレーム分の距離データから平均距離データを得て比較データとする処理、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする処理等によって行えばよい。これらの変換処理は、対象物201を可能な限り排除した、背景200のみをスキャンしたものに近い距離データを求めるための変換処理である。
なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。
変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域候補として抽出する。一般的に、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変化して取り扱う。なお、現データおよび比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は、「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、対象物201に該当する画素にのみ差分が現れ、得られる差分値は、「背景と対象物との間の距離」を示している。逆に、現データには対象物201が含まれず、現データも比較データも背景200のみが含まれている場合、得られる差分値は「0」となる。
変化領域抽出部40は、差分値が上記閾値以上の画素領域を、変化領域候補として抽出し、変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。変化領域候補データは、具体的には、例えば、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで表される複数の画素について、各画素が変化領域候補であれば、二値化された差分値として「1」との値が、変化領域候補でなければ、二値化された差分値として「0」との値が、それぞれ付与されたデータある。
3Dマスク部70は、現データの示す空間位置が、マスク位置に一致するか否かを識別する。マスク位置とは、3Dマスクの設定された空間位置である。そして、3Dマスク部70は、変化領域抽出部40が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する。
なお、「マスク位置に相当する空間位置を示すと判定された現データの領域」は、1または複数の画素の位置を特定することによって示されるものであり、より具体的には、1または複数の水平方向座標Xと垂直方向座標Yとの組み合わせにより特定することができる。
3Dマスクは、監視領域における不要な検知要素を遮蔽するためのものであり、監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に、特定の1または複数のグリッドに対して予め設定されるものである。3Dマスクが設定されたグリッドに対応する空間位置を、3Dマスクの設定された空間位置、あるいは、マスク位置というものとする。詳細は後述する。
3Dマスク部70は、マスク識別部701と書換部702とを備える。
マスク識別部701は、現データの示す空間位置がマスク位置に一致するか否かを識別する。具体的には、マスク識別部701は、現データと3Dマスクの設定情報とを取得し、当該現データの各座標における距離データZが示す空間位置について、3Dマスクの設定された空間位置と一致するか否かを識別する。そして、マスク識別部701は、マスク位置を示す現データの全ての画素について、当該全ての画素の位置を示す水平方向座標Xおよび垂直方向座標Yからなる変化領域0値座標データを生成する。
監視領域をどのように複数のグリッドに分割するか、および、3Dマスクをどのグリッドに設定するかは、例えば、監視装置100の設置時等に、予めオペレータ等が設定し、当該設定情報を図示しない適宜の記憶装置に記憶させておく。なお、これらの設定情報を記憶させておく場所は、3Dマスク部70が参照可能な場所であればよい。
例えば、上記記憶装置には、監視領域を、X方向8グリッド、Y方向4グリッドおよびZ方向4グリッドに分割することを示す設定情報が記憶される。この場合、監視領域は、合計128個のグリッドに分割される。3Dマスクは、当該128個のグリッドの中の特定のグリッドに対し、例えば、3Dマスクステータスを付与することにより設定することができ、記憶装置には、当該特定のグリッドを示す情報が記憶される。この場合、3Dマスクステータスが付与されたグリッドに対応する空間位置が、マスク位置となる。
オペレータ等は、適宜の方法で、3Dマスクの設定を行うことができる。例えば、最も簡単な指定方法として、図示しない3Dマスク設定手段を用いて、直接3Dマスクを設定したいグリッドを指定する方法があげられる。ただし、この方法は、設定の対象となるグリッドを1個1個指定することとなるため、作業が膨大になり、オペレータ等にとって負担になり得る。
そこで、オペレータ等は、例えば、次に簡単な方法として、「形状指定」および「諸元指定」の2ステップで3Dマスクの設定を行う方法を採用してもよい。
例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「直方体」とし、監視領域を分割した複数のグリッドのうち「底辺4点のグリッドの位置」と「グリッドを単位とした高さ」を指定する入力を行う。また、例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「球体」とし、監視領域を分割した複数のグリッドのうち「球体中心点となるグリッドの位置」と「グリッドを単位とした半径」を指定する。
上記3Dマスク設定手段は、これらの入力情報に基づき、指定された直方体または球体を形成する複数のグリッドを特定し、3Dマスクの設定を行うことができる。したがって、この方法によれば、オペレータ等は、上記のように「形状指定」および「諸元指定」を行うだけでよく、作業負担の軽減となる。
なお、これらは一例に過ぎず、三角錐、円錐、三角柱、円柱等、一般的に定義が明確な形状であれば、「形状指定」および「諸元指定」による3Dマスクの設定方法に、全て使用可能である。また、これらの組み合わせで任意の形状を組み上げることも可能である。
書換部702は、マスク識別部701によってマスク位置に相当する空間位置を示すと判定された、現データの領域に対応する変化領域候補の差分値を、0に書き換える。具体的には、書換部702は、変化領域抽出部40から変化領域候補データを取得するとともに、マスク識別部701から変化領域0値座標データを取得する。そして、書換部702は、変化領域候補データにおける各画素のうち、変化領域0値座標データが示す位置の画素について、当該画素に付与された差分値を「0」に書き換える。なお、この場合の差分値は、二値化された差分値であり、例えば、書換部702は、変化領域候補データにおける変化領域候補とされた画素のうち、変化領域0値座標データが示す位置の画素については、当該画素に付与された差分値「1」を「0」に書き換えることとなる。
変化領域候補データにおける変化領域候補とされた画素のうち、書換部702によって差分値が「0」に書き換えられた画素は、変化領域候補から除外されることとなる。
書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
認識処理部50は、3Dマスク部70が出力した変化領域データに基づき、変化領域の「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
報知処理部60は、認識処理部50から出力された報知指示情報に基づいて報知処理を行う。報知処理としては、上位にあるPC300などの装置に特定の信号を送信する処理、あるいは装置にブザーを鳴らさせるなどの処理などが挙げられる。
なお、この実施の形態1では、図1に示すように、3次元レーザスキャナ10は監視装置100に備えられるものとしたが、これに限らず、3次元レーザスキャナ10は監視装置100の外部に備えられ、監視装置100は、ネットワーク等を介して、3次元レーザスキャナ10から点群データ17を取得するようにしてもよい。
次に、実施の形態1に係る監視装置100の動作について説明する。
図4は、実施の形態1に係る監視装置100の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が8×4画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST401)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST402)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である8×4に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは8×4画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
現データ演算部20は、ステップST402で取得された8×4画素の点群データ17中の距離データを現データとして現データ蓄積部21に蓄積させる(ステップST403)。
比較データ演算部30は、過去にステップST402で取得されて不図示のデータ蓄積部に蓄積された8×4画素の点群データ17中の距離データを比較データに変換し、比較データ蓄積部31に蓄積させる(ステップST404)。
変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出する(ステップST405)。
ステップST405で得られた差分値は、距離データと同じく1画素あたり8ビットの多値データであり、変化領域抽出部40は、得られた差分値が予め設定した閾値以上であるか否か判定を行う(ステップST406)。差分値が閾値以上である場合(ステップST406の“YES”の場合)、変化領域抽出部40は、当該画素領域を変化領域候補として抽出する(ステップST407)。
一方、差分値が閾値未満である場合(ステップST406の“NO”の場合)、当該画素領域は変化領域でないと判断し、ステップST408の処理に進む。
その後、変化領域抽出部40は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST408)。
ステップST408において、8×4画素全てについて処理を行っていない場合(ステップST408の“NO”の場合)、ステップST405の処理に戻り、上述した処理を繰り返す。
ステップST408において、8×4画素全てについて処理を行った場合(ステップST408の“YES”の場合)、変化領域抽出部40は、抽出した変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。
3Dマスク部70のマスク識別部701は、現データが示す各空間位置について、3Dマスクの設定された空間位置(マスク位置)と一致するか否かを識別する(ステップST409)。
ステップST409において、現データが示す空間位置がマスク位置と一致すると識別した場合(ステップST409の“YES”の場合)、3Dマスク部70の書換部702は、変化領域候補の画素のうち、マスク位置と一致した空間位置を示す現データの画素に対応する画素について、当該画素に付与されている差分値を「0」に書き換える(ステップST410)。
ステップST409において、現データが示す空間位置がマスク位置に一致しないと識別した場合(ステップST409の“NO”の場合)、3Dマスク部70の書換部702は、変化領域候補の画素のうち、マスク位置と一致しない空間位置を示す現データの画素に対応する画素について、当該画素に付与されている差分値をそのままの値とする(ステップST411)。
その後、マスク識別部701は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST412)。
ステップST412において、8×4画素全てについて処理を行っていない場合(ステップST412の“NO”の場合)、ステップST409の処理に戻り、上述した処理を繰り返す。
ステップST412において、8×4画素全てについて処理を行った場合(ステップST412の“YES”の場合)、書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
ここで、3Dマスク部70がステップST409~ステップST412において差分値を書き換える処理(以下「3Dマスク処理」という。)の効果について、図を用いて説明する。
まず、図5は、一般的なカメラで撮影した画像において、2Dマスクを用いて誤報を避ける方法について説明するための図である。図5Aは、例えば、背景200として床501と木502、移動する対象物201として歩行者503が撮影される場合の、一般的なカメラの視野をイメージした図を示している。当該例において、木502は風に揺れ、まれに移動する対象物として誤認され、誤報を生じさせるものと仮定する。図5Bは、図5Aに示すような視野を撮影した画像において、木502による誤報を避けるための2Dマスク504を設定した場合の画像の一例を示した図である。
2Dマスクとは、カメラ視野上において視界を遮るマスクであり、当該2Dマスクに隠された箇所は、電気的に遮蔽され見えなくなる。
図5Bでは、2Dマスク504が、誤報の原因となる木502を隠すように設定されている。これにより、画像上で木502は見えなくなり、誤報の原因となることがなくなる。
しかしながら、2Dマスク504は、図5Bに示すように、木502と同時に歩行者503も一部遮蔽してしまう。したがって、歩行者503が、画像上の2Dマスク504の位置を移動する際には、当該歩行者503の発見が困難となり、発報対象の見落とし(以下「失報」という。)が生じ得る。
そこで、実施の形態1に係る監視装置100では、3次元レーザスキャナの視野において、3Dマスク部70が3Dマスク処理を行うことで、木502と対象物201とを区別して遮蔽するようにし、対象物201に対する失報を防止するとともに、木502に対する誤報を防止するようにしている。
以下、3Dマスク処理の詳細について説明する。
図6は、実施の形態1において、3次元レーザスキャナ10の視野を仮想的に複数のグリッドに分割した立体モデルの一例を示す図である。
図6において、1つのキューブ状のグリッドは、レーザ照射1ポイントの測定点を示すものであり、監視領域である空間は、X方向8グリッド×Y方向4グリッド×Z方向4グリッドの全128個のグリッドに分割されているものとする。
図7は、実施の形態1において、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。
図7Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図7Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図7Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
図7Cに示すように、床501は、3次元レーザスキャナ10の俯角により、奥に行けば行くほど高い位置に見える。また、木502および歩行者503は、同じ大きさであるにもかかわらず、奥にある木502は、小さく測定される。
図7A~図7Bにおいて、床501、木502および歩行者503に相当するグリッド以外のグリッドは、3次元レーザスキャナ10において距離が得られなかったグリッドである。この実施の形態1において、3次元レーザスキャナ10において距離が得られなかったグリッドをブランクグリッド505ともいうものとする。
図6,7に示したように、3次元レーザスキャナ10の視野上で、背景200の一部を構成する木502と、対象物201である歩行者503とが重なっているが、移動する物体である歩行者503を発報対象とし、風に揺れる木502は発報対象外とする必要がある。
しかしながら、3次元レーザスキャナ10から得られる情報だけでは、点群データ17の各画素における距離データZが歩行者503に相当するのか、木502に相当するのかの情報は含まれておらず、歩行者503も木502も発報対象とし得る。これに対し、発報不要な木502を遮蔽すべく、図5を用いて説明したような2Dマスク504を設定したとすると、3次元レーザスキャナ10の視野上の各グリッドは、図8に示すようになる。
図8は、例えば、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、2Dマスク504を設定した場合のイメージの一例である。
図8Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図8Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
図8Bでは、2Dマスク504を、仮想的に8×4×4個のグリッド内に展開したものとしている。2Dマスク504は、X-Y方向の平面において定義されるものであり、Z方向の情報を有していない。したがって、図8Bに示すように、2Dマスク504は、3次元レーザスキャナ10からみた手前側から奥側まで、2Dマスク504が設定されたX-Y方向の領域におけるZ方向のすべての位置において視界を遮ることになる。
この場合、図8Cに示すように、歩行者503が、2Dマスク504の位置を移動する際には、歩行者503の一部も遮蔽してしまうため、失報が生じ得る。
そこで、実施の形態1では、上述のとおり、3Dマスク部70が3Dマスク処理を行うことで、背景200と対象物201とを区別して遮蔽するようにした。
図9は、実施の形態1において、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、3Dマスク506を設定したイメージの一例である。
図9Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図9Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図9Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
図9Bでは、3Dマスク506が、8×4×4個のグリッド内に設定されたイメージの一例を示している。具体的には、図9Bでは、3Dマスク506が木502を遮蔽するように、12個のグリッドからなる直方体として3次元レーザスキャナ10の視野における木502の位置に予め設定されていたものとする。
3Dマスク506は、監視領域の空間をX方向、Y方向およびZ方向に分割した複数のグリッドのうち、監視装置のユーザが意図するグリッドのみに設定することができるため、2Dマスク504とは異なり、3次元レーザスキャナ10の視野において、ユーザが意図する一部のZ方向位置での視界のみを遮ることができる。
図9Bでは、3次元レーザスキャナ10の視野のZ方向において、木502が存在する位置にのみ3Dマスク処理が実施される。したがって、木502は遮蔽されるが、3Dマスクの設定された空間位置よりもZ方向の手前側に存在する歩行者503は遮蔽されない(図9Cも参照)。
以上のように、実施の形態1では、3Dマスク部70が3Dマスク処理を行うことで、背景200と対象物201とを区別して3Dマスク506で遮蔽することができる。すなわち、例えば、発報対象とすべき対象物201である歩行者503と、発報対象外とすべき木502とが、3次元レーザスキャナ10の視野上で重なっていても、互いの距離の乖離を利用し、誤報の原因となる木502のみを3Dマスク506で遮蔽することができる。これにより、発報対象とすべき歩行者503を正確に識別して失報を防止するとともに、発報対象外とすべき木502を、発報対象として誤認識してしまうことによる誤報を防止することができる。
図4のフローチャートに戻る。
ステップST412において8×4個の画素全てについて処理を行った場合(ステップST412の“YES”の場合)、認識処理部50は、ステップST412で3Dマスク部70が出力した変化領域データに基づき、変化領域が照合条件を満たすか否か判定を行う(ステップST413)。
照合条件を満たす場合(ステップST413の“YES”の場合)、認識処理部50は、変化領域が報知対象であると認識する(ステップST414)。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
一方、照合条件を満たさない場合(ステップST413の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST415)、ステップST401の処理に戻る。
ここで、ステップST413における認識処理部50による判定処理を詳細に説明する。
図10は、実施の形態1に係る監視装置100の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、変化領域が監視範囲内に存在するか否か判定を行う(ステップST1001)。なお、ここで、監視範囲とは、監視領域内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
変化領域が監視範囲内に存在する場合(ステップST1001の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の面積を有しているか否か判定を行う(ステップST1002)。ここでいう変化領域とは、図4のステップST411で変化領域と決定された画素のうち、互いに隣接あるいは近接する複数の画素の集合からなる領域のことをいう。
変化領域が所定の面積を有している場合(ステップST1002の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST1003)。所定の縦横寸法を有している場合(ステップST1003の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の移動速度を有しているか否か判定を行う(ステップST1004)。所定の移動速度を有している場合(ステップST1004の“YES”の場合)、図4のステップST414に進み、変化領域が報知対象であると認識される。
一方、変化領域が監視範囲内に存在しない場合(ステップST1001の“NO”の場合)、あるいは、変化領域が所定の面積を有していない場合(ステップST1002の“NO”の場合)、あるいは、変化領域が所定の縦横寸法を有していない場合(ステップST1003の“NO”の場合)、あるいは、変化領域が所定の移動速度を有してない場合(ステップST1004の“NO”の場合)は、図4のステップST415に進み、報知対象でないと判断される。
図4のフローチャートに戻る。
報知処理部60は、ステップST414において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST416)、ステップST401の処理に戻る。
図11A,図11Bは、実施の形態1に係る監視装置100のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、処理回路1101により実現される。すなわち、監視装置100は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路1101を備える。
処理回路1101は、図11Aに示すように専用のハードウェアであっても、図11Bに示すようにメモリ1105に格納されるプログラムを実行するCPU(Central Processing Unit)1106であってもよい。
処理回路1101が専用のハードウェアである場合、処理回路1101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路1101がCPU1106の場合、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70は、HDD(Hard Disk Drive)1102、メモリ1105等に記憶されたプログラムを実行するCPU1106、システムLSI(Large-Scale Integration)等の処理回路により実現される。また、HDD1102、メモリ1105等に記憶されたプログラムは、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1105とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、現データ演算部20と、比較データ演算部30については専用のハードウェアとしての処理回路1101でその機能を実現し、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70については処理回路がメモリ1105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
現データ蓄積部21と比較データ蓄積部31は、例えば、HDD1102を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31は、DVD、メモリ1105等によって構成されるものであってもよい。
また、監視装置100は、3次元レーザスキャナ10、あるいは、上位にあるPC300等の装置との通信を行う入力インタフェース装置1103、出力インタフェース装置1104を有する。
以上のように、この実施の形態1によれば、監視装置100は、監視領域を測定した3次元レーザスキャナ10の測定結果から、監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部20と、測定結果から過去の距離データを取得し、比較データに変換する比較データ演算部30と、現データと比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部40と、現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、変化領域抽出部40が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部70を備えるように構成したため、発報対象と不要な検知要素との遠近の差によって生じる発報対象の見落とし、および、誤報を防止することができる。
なお、以上の実施の形態1では、監視装置100は3次元レーザスキャナ10を備えるものとしたが、3次元レーザスキャナ10に限らず、距離を測定するセンサ一般に応用可能である。
また、以上の実施の形態1では、変化領域抽出部40が2値化処理を行い、差分値を2値化データとして取り扱うようにしたが、差分値の2値化処理は、変化領域抽出部40が行うのではなく、代わりに、認識処理部50が行うようにしてもよいし、3Dマスク部70が行うようにしてもよい。演算量が負荷として問題にならない場合は、監視装置100において、2値化処理は行わず、差分値をそのまま用いて各部における処理を行うようにしてもよい。
また、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
10 3次元レーザスキャナ、11 レーザ発光ユニット、12 レーザ光パルス、13 分散機構、14 分散レーザ光パルス、15 レーザ反射光、16 レーザ受光ユニット、17 点群データ、20 現データ演算部、21 現データ蓄積部、30 比較データ演算部、31 比較データ蓄積部、40 変化領域抽出部、50 認識処理部、60 報知処理部、70 3Dマスク部、100 監視装置、200 背景、201 対象物、300 PC、501 床、502 木、503 歩行者、504 2Dマスク、505 ブランクグリッド、506 3Dマスク、701 マスク識別部、702 書換部、1101 処理回路、1102 HDD、1103 入力インタフェース装置、1104 出力インタフェース装置、1105 メモリ、1106 CPU。

Claims (3)

  1. 監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部と、
    前記測定結果から過去の前記距離データを取得し、比較データに変換する比較データ演算部と、
    前記現データと前記比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、
    前記現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、前記変化領域抽出部が抽出した変化領域候補から、前記マスク位置に一致する空間位置を示すと判定された前記現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部と、
    前記3Dマスクは、前記監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に分割された複数の前記グリッドのうちの特定の複数の前記グリッドに対して設定されるものであり、複数の前記グリッドからなる前記3Dマスクの形状および、前記グリッドで示される諸元が指定された入力情報に基づき、前記監視領域としての空間を仮想的に分割した前記キューブ状の複数の前記グリッドのうち、指定された形状を形成する複数の前記グリッドを特定することで前記3Dマスクを設定する3Dマスク設定手段
    とを備えた監視装置。
  2. 前記3Dマスク部は、
    前記現データの示す各空間位置が前記マスク位置に一致するか否かを識別するマスク識別部と、
    前記マスク識別部によって前記マスク位置に一致する空間位置を示すと識別された前記現データの領域に対応する変化領域候補の前記差分値を0に書き換える書換部とを有する
    ことを特徴とする請求項1記載の監視装置。
  3. 前記3Dマスク部が決定した変化領域の特徴量に基づき、当該変化領域が報知対象であるか否かの認識処理を行う認識処理部を備えた
    ことを特徴とする請求項1または請求項2記載の監視装置。
JP2017170322A 2017-09-05 2017-09-05 監視装置 Active JP7128568B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170322A JP7128568B2 (ja) 2017-09-05 2017-09-05 監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170322A JP7128568B2 (ja) 2017-09-05 2017-09-05 監視装置

Publications (2)

Publication Number Publication Date
JP2019046295A JP2019046295A (ja) 2019-03-22
JP7128568B2 true JP7128568B2 (ja) 2022-08-31

Family

ID=65814313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170322A Active JP7128568B2 (ja) 2017-09-05 2017-09-05 監視装置

Country Status (1)

Country Link
JP (1) JP7128568B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7361496B2 (ja) * 2019-05-24 2023-10-16 三菱電機株式会社 監視装置
CN115183763A (zh) * 2022-09-13 2022-10-14 南京北新智能科技有限公司 一种基于人脸识别和栅格法的人员地图定位方法
WO2024084601A1 (ja) * 2022-10-18 2024-04-25 日本電気株式会社 変化検出方法、変化検出システム及び変化検出装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249722A (ja) 2006-03-17 2007-09-27 Hitachi Ltd 物体検知装置
JP2009124618A (ja) 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
WO2016002776A1 (ja) 2014-07-03 2016-01-07 三菱電機株式会社 監視装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2923653B2 (ja) * 1989-10-25 1999-07-26 池上通信機株式会社 移動物体検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249722A (ja) 2006-03-17 2007-09-27 Hitachi Ltd 物体検知装置
JP2009124618A (ja) 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
WO2016002776A1 (ja) 2014-07-03 2016-01-07 三菱電機株式会社 監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
水域・水際向け監視センサiLScanner,IHI技報 第52巻 第2号,2012年06月01日

Also Published As

Publication number Publication date
JP2019046295A (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
CN107817496B (zh) 适用于自动车辆的对象检测系统
Schauer et al. The peopleremover—removing dynamic objects from 3-d point cloud data by traversing a voxel occupancy grid
US11455565B2 (en) Augmenting real sensor recordings with simulated sensor data
JP5822255B2 (ja) 対象物識別装置及びプログラム
Pu et al. Recognizing basic structures from mobile laser scanning data for road inventory studies
US9117281B2 (en) Surface segmentation from RGB and depth images
JP6685836B2 (ja) 情報処理装置、および、情報処理方法
JP5145986B2 (ja) 物体検出装置及び測距方法
JP6667065B2 (ja) 位置推定装置および位置推定方法
US20140125671A1 (en) System and Method for Detailed Automated Feature Extraction from Data Having Spatial Coordinates
JP7128568B2 (ja) 監視装置
Yan et al. Detection and classification of pole-like road objects from mobile LiDAR data in motorway environment
WO2019165194A1 (en) Methods and systems for processing and colorizing point clouds and meshes
WO2020127151A1 (en) Method for improved object detection
JP6781432B2 (ja) 電波伝搬シミュレーションモデルの作成方法、作成システム、作成装置および作成プログラム
Weinmann et al. Preliminaries of 3D point cloud processing
Bahirat et al. A study on lidar data forensics
JP4887540B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP7226565B2 (ja) 物体認識方法、及び、物体認識装置
Grönwall et al. Spatial filtering for detection of partly occluded targets
CN110291557B (zh) 监视装置
JP7054989B2 (ja) 監視装置
WO2022241574A1 (en) Texture mapping to polygonal models for industrial inspections
Hegde et al. A recursive planar feature extraction method for 3D range data segmentation
JP6758152B2 (ja) 監視用画像処理装置および監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220816

R150 Certificate of patent or registration of utility model

Ref document number: 7128568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150