JP2019046295A - Monitoring device - Google Patents
Monitoring device Download PDFInfo
- Publication number
- JP2019046295A JP2019046295A JP2017170322A JP2017170322A JP2019046295A JP 2019046295 A JP2019046295 A JP 2019046295A JP 2017170322 A JP2017170322 A JP 2017170322A JP 2017170322 A JP2017170322 A JP 2017170322A JP 2019046295 A JP2019046295 A JP 2019046295A
- Authority
- JP
- Japan
- Prior art keywords
- mask
- data
- change area
- unit
- current data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 11
- 238000012544 monitoring process Methods 0.000 claims abstract description 54
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 23
- 238000005259 measurement Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 40
- 239000000284 extract Substances 0.000 claims description 6
- 238000013500 data storage Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000006185 dispersion Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Abstract
Description
この発明は、監視領域に存在する対象物を認識する監視装置に関するものである。 The present invention relates to a monitoring apparatus that recognizes an object present in a monitoring area.
従来、カメラ画像を用いて対象物を検知および認識する技術が存在する。カメラ画像は2次元データであることから、当該カメラ画像から得られる情報も2次元座標、輝度、および、色などに限定される。従来技術の多くは輝度背景差分方式を用いて、監視領域内の変化領域を抽出して対象物を認識している。しかし、変化領域は、対象物以外の物体等を検知したことによっても抽出され得る。対象物以外の物体等を検知したことによって抽出された変化領域は、誤報が生じる原因となる。そこで、不要な検知要素である対象物以外の物体等が検知されないように、不要な検知要素に対して2Dマスクによる遮蔽を行うことによって、誤報を防止する技術が一般的に採用されている。
例えば、特許文献1には、2Dマスクとして、櫛形マスクを使用して、路面の水たまりのような不要な検知要素が検知されないようにする監視用画像処理装置が開示されている。特許文献1に開示された装置では、例えば、不要な検知要素である水たまりの水紋のような小さい動きと、当該水たまりの前を横切る発報対象である対象物(特許文献1においては人物)の大きな動きとを、「水紋は、人物と比較しある特定の場所範囲に不定期にあらわれる」、「水紋は、人物と比較し比較的小さな変化領域である」、および、「水紋は、人物と比較し、横向き櫛形マスクで分断されやすい形状を持つ」という、性質の差を利用することで区別する。
Conventionally, techniques exist for detecting and recognizing an object using a camera image. Since a camera image is two-dimensional data, information obtained from the camera image is also limited to two-dimensional coordinates, luminance, and color. Most of the prior art uses a luminance background subtraction method to extract a change area in a monitoring area to recognize an object. However, the change area can also be extracted by detecting an object other than the target. A change area extracted by detecting an object or the like other than the object causes an erroneous notification. Therefore, a technique is generally employed to prevent false alarms by shielding unnecessary detection elements with a 2D mask so that objects other than the target objects, which are unnecessary detection elements, are not detected.
For example, Patent Document 1 discloses a monitoring image processing apparatus that uses a comb-shaped mask as a 2D mask to prevent detection of unnecessary detection elements such as a puddle on a road surface. In the device disclosed in Patent Document 1, for example, a small movement such as a water mark of a puddle, which is an unnecessary detection element, and a target object that is a notification target that crosses in front of the puddle (a person in Patent Document 1) "The water mark appears irregularly in a certain place range compared to the person", "the water mark is a relatively small change area compared to the person", and "the water mark Is distinguished by utilizing the difference in the property that it has a shape that is more likely to be separated by the sideways comb-shaped mask, as compared to the person.
しかしながら、2次元データであるカメラ画像に対して2Dマスクによる遮蔽を行う従来の技術では、不要な検知要素と発報対象とがカメラの視野上で重なっている場合、あるいは、両者がカメラの視野上で近接した位置に存在する場合、不要な検知要素とともに発報対象まで遮蔽されてしまい、発報対象の見落しが生じるという課題があった。
また、特許文献1に開示された技術においても、カメラ画像上における不要な検知要素と発報対象との大きさの差がない場合は、櫛形マスクで分別できる性質の差が小さくなり、不要な検知要素と発報対象とを精度よく区別することができず、依然として発報対象の見落としが生じるという課題があった。
However, in the related art in which shielding with a 2D mask is performed on a camera image that is two-dimensional data, unnecessary detection elements and a notification target overlap in the field of view of the camera, or both are in the field of view of the camera When it exists in the position which adjoined above, with the unnecessary detection element, even the alerting | reporting object was shielded, and the subject that the alerting | reporting object was overlooked occurred.
Further, even in the technique disclosed in Patent Document 1, when there is no difference in size between the unnecessary detection element and the notification target on the camera image, the difference in properties that can be separated by the comb-shaped mask becomes small, and is unnecessary. There is a problem that the detection element and the notification target can not be distinguished with high accuracy, and the notification target is still overlooked.
この発明は、上記のような課題を解決するためになされたもので、発報対象の見落としを防止するとともに、誤報を防止することができる監視装置を提供することを目的とする。 The present invention has been made to solve the problems as described above, and has an object to provide a monitoring device capable of preventing an oversight of a notification target and preventing a false alarm.
この発明に係る監視装置は、監視領域を測定した3次元レーザスキャナの測定結果から、監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部と、測定結果から過去の距離データを取得し、比較データに変換する比較データ演算部と、現データと比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、変化領域抽出部が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部とを備えたものである。 The monitoring apparatus according to the present invention acquires the distance data to the object present in the monitoring area from the measurement result of the three-dimensional laser scanner which measured the monitoring area, and uses the current data operation unit as current data and the measurement result in the past. Distance data is acquired, and a comparison data operation unit that converts the data into comparison data, and a difference value between current data and comparison data are calculated, and a change area extraction that extracts an area having the difference value equal to or more than a threshold as a change area candidate It identifies whether the space position indicated by the current data matches the mask position that is the set space position of the 3D mask, and matches the mask position from the change area candidate extracted by the change area extraction unit A 3D mask unit is provided which excludes the change area candidate corresponding to the area of the current data determined to indicate the spatial position and determines the change area.
この発明によれば、発報対象の見落としを防止するとともに、誤報を防止することができる。 According to the present invention, it is possible to prevent an oversight of a notification target and to prevent an erroneous notification.
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る監視装置100の構成を示すブロック図である。
監視装置100は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、および、3Dマスク部70で構成されている。3Dマスク部70は、マスク識別部701、および、書換部702を備える。
なお、図1において、監視装置100外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、監視装置100の上位にある装置であり、ブザー等の発報処理を行うPC(Personal Computer)300を記載している。なお、ここでは、監視装置100の上位にある装置は、一例としてPC300としているが、監視装置100の上位にある装置は、監視装置100における報知処理に基づき発報処理を行うことができるものであればよく、例えば、音声出力装置としてもよい。監視装置100における報知処理の詳細は後述する。
Hereinafter, in order to explain the present invention in more detail, a mode for carrying out the present invention will be described according to the attached drawings.
Embodiment 1
FIG. 1 is a block diagram showing the configuration of the
The
In FIG. 1, a
3次元レーザスキャナ10は、スキャン範囲に存在する対象物201等の3次元情報を取得して、当該対象物201等までの距離等を計測する。
ここで、図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。したがって、図2の例における3次元レーザスキャナ10は、X方向に6画素分およびY方向に2画素分で、全12画素分の解像度を有しているといえる。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
The three-
Here, FIG. 2 is a diagram showing the configuration of the three-
The
In addition, although it was set as the dispersion |
レーザ受光ユニット16は、反射対象で反射されたレーザ反射光15を受光し、発光から受光までの時間差に基づいて、反射対象までの距離を算出し、距離データとする。図2の例では、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散された照射位置全てに対して、個別に距離を算出し、距離データとする。さらに、レーザ受光ユニット16は、分散された照射位置全てに対して、照射した光量と受光した光量の比率に基づいて反射対象の各ポイントにおける反射率を算出し、強度データとする。レーザ受光ユニット16で算出された距離データおよび強度データは、図1で示した現データ演算部20および比較データ演算部30に出力される。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による点群データ17の現データ演算部20、および、比較データ演算部30への出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20、および、比較データ演算部30へ出力する。
The laser
The distance data and the intensity data for all the irradiation positions calculated by the laser
The output of the
次に、回転ミラーを用いた分散機構13の詳細について、図3を参照しながら説明を行う。分散機構13は、第1の回転ミラー13a、第1のモータ13b、第2の回転ミラー13cおよび第2のモータ13dで構成されている。第1の回転ミラー13aは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、レーザ光パルス12を第1の回転ミラー13aの面に対して水平方向に分散する。水平方向に分散された水平分散レーザ光パルス13eは、常に同一の角度で分散される。第1のモータ13bは、第1の回転ミラー13aを駆動させる駆動源である。第2の回転ミラー13cは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、水平分散レーザ光パルス13eをさらに垂直方向に分散する。垂直方向に分散された垂直分散レーザ光パルス13fは、常に同一の角度で分散される。第2のモータ13dは、第2の回転ミラー13cを駆動させる駆動源である。
Next, the details of the dispersing
以上の動作により、3次元レーザスキャナ10は、以下に示すX,Y,およびZの3次元情報を得る。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
水平方向座標Xは、各画素の水平方向位置を示す値であり、垂直方向座標Yは、各画素の垂直方向位置を示す値である。図2の例では、水平方向座標Xは1〜6の範囲の整数、垂直方向座標Yは1〜2の範囲の整数となる。また、距離データZは、各画素の位置において得られたZ軸方向の奥行き情報である。距離データZについては、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで特定される複数の画素に対して、それぞれ1つずつ測定された距離データZが得られる。図2の例では、12個の画素それぞれについて、対応する距離データZが得られる。
したがって、3次元情報における、水平方向座標Xと垂直方向座標Yと距離データZとの複数の組み合わせについては、それぞれの組み合わせが、ある特定の空間位置を示すものである。
3次元情報には、Z軸方向の奥行き情報である距離データZが含まれているため、対象物が3次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、Z軸方向の移動量を用いて差分を得ることができる。
By the above operation, the three-
X: Horizontal coordinate Y; Vertical coordinate Z; Distance data Horizontal coordinate X is a value indicating the horizontal position of each pixel, and vertical coordinate Y is a value indicating the vertical position of each pixel. In the example of FIG. 2, the horizontal coordinate X is an integer in the range of 1 to 6, and the vertical coordinate Y is an integer in the range of 1 to 2. The distance data Z is depth information in the Z-axis direction obtained at the position of each pixel. As for the distance data Z, distance data Z measured one by one is obtained for a plurality of pixels specified by all combinations of the horizontal coordinate X and the vertical coordinate Y. In the example of FIG. 2, the corresponding distance data Z is obtained for each of the 12 pixels.
Therefore, with regard to a plurality of combinations of horizontal coordinate X, vertical coordinate Y and distance data Z in three-dimensional information, each combination indicates a specific spatial position.
Since three-dimensional information includes distance data Z, which is depth information in the Z-axis direction, when the object moves in the Z-axis direction on three-dimensional coordinates, that is, toward the three-
現データ演算部20は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、監視領域、すなわち、3次元レーザスキャナ10の測定範囲における現時点の距離データを示す現データとして現データ蓄積部21に蓄積させる。
比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去10フレーム分の距離データから平均距離データを得て比較データとする処理、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする処理等によって行えばよい。これらの変換処理は、対象物201を可能な限り排除した、背景200のみをスキャンしたものに近い距離データを求めるための変換処理である。
なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。
The current
The comparison
The comparison
変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域候補として抽出する。一般的に、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変化して取り扱う。なお、現データおよび比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は、「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、対象物201に該当する画素にのみ差分が現れ、得られる差分値は、「背景と対象物との間の距離」を示している。逆に、現データには対象物201が含まれず、現データも比較データも背景200のみが含まれている場合、得られる差分値は「0」となる。
変化領域抽出部40は、差分値が上記閾値以上の画素領域を、変化領域候補として抽出し、変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。変化領域候補データは、具体的には、例えば、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで表される複数の画素について、各画素が変化領域候補であれば、二値化された差分値として「1」との値が、変化領域候補でなければ、二値化された差分値として「0」との値が、それぞれ付与されたデータある。
The change
The change
3Dマスク部70は、現データの示す空間位置が、マスク位置に一致するか否かを識別する。マスク位置とは、3Dマスクの設定された空間位置である。そして、3Dマスク部70は、変化領域抽出部40が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する。
なお、「マスク位置に相当する空間位置を示すと判定された現データの領域」は、1または複数の画素の位置を特定することによって示されるものであり、より具体的には、1または複数の水平方向座標Xと垂直方向座標Yとの組み合わせにより特定することができる。
3Dマスクは、監視領域における不要な検知要素を遮蔽するためのものであり、監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に、特定の1または複数のグリッドに対して予め設定されるものである。3Dマスクが設定されたグリッドに対応する空間位置を、3Dマスクの設定された空間位置、あるいは、マスク位置というものとする。詳細は後述する。
The
Note that “the region of current data determined to indicate a spatial position corresponding to a mask position” is indicated by specifying the position of one or more pixels, and more specifically, one or more Can be specified by a combination of the horizontal coordinate X and the vertical coordinate Y.
The 3D mask is for shielding unnecessary detection elements in the monitoring area, and when the space as the monitoring area is virtually divided into a plurality of cube-shaped grids, for one or more specific grids. Is set in advance. The spatial position corresponding to the grid in which the 3D mask is set is referred to as the set spatial position or mask position of the 3D mask. Details will be described later.
3Dマスク部70は、マスク識別部701と書換部702とを備える。
マスク識別部701は、現データの示す空間位置がマスク位置に一致するか否かを識別する。具体的には、マスク識別部701は、現データと3Dマスクの設定情報とを取得し、当該現データの各座標における距離データZが示す空間位置について、3Dマスクの設定された空間位置と一致するか否かを識別する。そして、マスク識別部701は、マスク位置を示す現データの全ての画素について、当該全ての画素の位置を示す水平方向座標Xおよび垂直方向座標Yからなる変化領域0値座標データを生成する。
監視領域をどのように複数のグリッドに分割するか、および、3Dマスクをどのグリッドに設定するかは、例えば、監視装置100の設置時等に、予めオペレータ等が設定し、当該設定情報を図示しない適宜の記憶装置に記憶させておく。なお、これらの設定情報を記憶させておく場所は、3Dマスク部70が参照可能な場所であればよい。
The
The
For example, an operator etc. sets beforehand how to divide the monitoring area into a plurality of grids and to which grid the 3D mask is to be set, and the setting information is illustrated. Not stored in an appropriate storage device. The place where the setting information is stored may be a place where the
例えば、上記記憶装置には、監視領域を、X方向8グリッド、Y方向4グリッドおよびZ方向4グリッドに分割することを示す設定情報が記憶される。この場合、監視領域は、合計128個のグリッドに分割される。3Dマスクは、当該128個のグリッドの中の特定のグリッドに対し、例えば、3Dマスクステータスを付与することにより設定することができ、記憶装置には、当該特定のグリッドを示す情報が記憶される。この場合、3Dマスクステータスが付与されたグリッドに対応する空間位置が、マスク位置となる。 For example, setting information indicating that the monitoring area is divided into eight grids in the X direction, four grids in the Y direction, and four grids in the Z direction is stored in the storage device. In this case, the monitoring area is divided into a total of 128 grids. The 3D mask can be set by, for example, applying a 3D mask status to a specific grid in the 128 grids, and the storage device stores information indicating the specific grid. . In this case, the spatial position corresponding to the grid to which the 3D mask status is given is the mask position.
オペレータ等は、適宜の方法で、3Dマスクの設定を行うことができる。例えば、最も簡単な指定方法として、図示しない3Dマスク設定手段を用いて、直接3Dマスクを設定したいグリッドを指定する方法があげられる。ただし、この方法は、設定の対象となるグリッドを1個1個指定することとなるため、作業が膨大になり、オペレータ等にとって負担になり得る。 The operator or the like can set the 3D mask by an appropriate method. For example, as the simplest specification method, there is a method of directly specifying a grid for which 3D mask setting is desired using 3D mask setting means (not shown). However, since this method designates grids to be set one by one, the work becomes enormous, which may be a burden on the operator or the like.
そこで、オペレータ等は、例えば、次に簡単な方法として、「形状指定」および「諸元指定」の2ステップで3Dマスクの設定を行う方法を採用してもよい。
例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「直方体」とし、監視領域を分割した複数のグリッドのうち「底辺4点のグリッドの位置」と「グリッドを単位とした高さ」を指定する入力を行う。また、例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「球体」とし、監視領域を分割した複数のグリッドのうち「球体中心点となるグリッドの位置」と「グリッドを単位とした半径」を指定する。
上記3Dマスク設定手段は、これらの入力情報に基づき、指定された直方体または球体を形成する複数のグリッドを特定し、3Dマスクの設定を行うことができる。したがって、この方法によれば、オペレータ等は、上記のように「形状指定」および「諸元指定」を行うだけでよく、作業負担の軽減となる。
なお、これらは一例に過ぎず、三角錐、円錐、三角柱、円柱等、一般的に定義が明確な形状であれば、「形状指定」および「諸元指定」による3Dマスクの設定方法に、全て使用可能である。また、これらの組み合わせで任意の形状を組み上げることも可能である。
Therefore, the operator or the like may adopt, for example, a method of setting the 3D mask in two steps of “shape designation” and “specification designation” as a simple method next.
For example, with respect to the 3D mask setting unit, the operator or the like makes the shape of the 3D mask "a rectangular solid" and sets "the position of four bottom grids" and "grids" among a plurality of grids into which the monitoring area is divided. Make an input specifying "height". Further, for example, the operator or the like makes the shape of the 3D mask "sphere" with respect to the 3D mask setting means, and "a position of a grid to be a sphere center point" and "grid Specify the radius as a unit.
The 3D mask setting unit can specify a plurality of grids forming the specified rectangular parallelepiped or sphere based on the input information, and can set the 3D mask. Therefore, according to this method, the operator or the like only needs to perform "shape designation" and "specification designation" as described above, which reduces the work load.
In addition, these are only examples, and if it is a shape whose definition is generally clear such as a triangular pyramid, a cone, a triangular prism, a cylinder, etc., the setting method of the 3D mask by "shape designation" and "specification" is all It is usable. Moreover, it is also possible to assemble arbitrary shapes by these combinations.
書換部702は、マスク識別部701によってマスク位置に相当する空間位置を示すと判定された、現データの領域に対応する変化領域候補の差分値を、0に書き換える。具体的には、書換部702は、変化領域抽出部40から変化領域候補データを取得するとともに、マスク識別部701から変化領域0値座標データを取得する。そして、書換部702は、変化領域候補データにおける各画素のうち、変化領域0値座標データが示す位置の画素について、当該画素に付与された差分値を「0」に書き換える。なお、この場合の差分値は、二値化された差分値であり、例えば、書換部702は、変化領域候補データにおける変化領域候補とされた画素のうち、変化領域0値座標データが示す位置の画素については、当該画素に付与された差分値「1」を「0」に書き換えることとなる。
変化領域候補データにおける変化領域候補とされた画素のうち、書換部702によって差分値が「0」に書き換えられた画素は、変化領域候補から除外されることとなる。
書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
The
Among the pixels set as the change area candidate in the change area candidate data, a pixel whose difference value is rewritten to “0” by the
The
認識処理部50は、3Dマスク部70が出力した変化領域データに基づき、変化領域の「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
The
報知処理部60は、認識処理部50から出力された報知指示情報に基づいて報知処理を行う。報知処理としては、上位にあるPC300などの装置に特定の信号を送信する処理、あるいは装置にブザーを鳴らさせるなどの処理などが挙げられる。
The
なお、この実施の形態1では、図1に示すように、3次元レーザスキャナ10は監視装置100に備えられるものとしたが、これに限らず、3次元レーザスキャナ10は監視装置100の外部に備えられ、監視装置100は、ネットワーク等を介して、3次元レーザスキャナ10から点群データ17を取得するようにしてもよい。
In the first embodiment, as shown in FIG. 1, the three-
次に、実施の形態1に係る監視装置100の動作について説明する。
図4は、実施の形態1に係る監視装置100の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が8×4画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST401)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST402)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である8×4に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは8×4画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
Next, the operation of the
FIG. 4 is a flowchart showing the operation of the
Here, in order to simplify the description, the case where the resolution of the three-
First, the three-
The three-
現データ演算部20は、ステップST402で取得された8×4画素の点群データ17中の距離データを現データとして現データ蓄積部21に蓄積させる(ステップST403)。
比較データ演算部30は、過去にステップST402で取得されて不図示のデータ蓄積部に蓄積された8×4画素の点群データ17中の距離データを比較データに変換し、比較データ蓄積部31に蓄積させる(ステップST404)。
The current
The comparison
変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出する(ステップST405)。
The change
ステップST405で得られた差分値は、距離データと同じく1画素あたり8ビットの多値データであり、変化領域抽出部40は、得られた差分値が予め設定した閾値以上であるか否か判定を行う(ステップST406)。差分値が閾値以上である場合(ステップST406の“YES”の場合)、変化領域抽出部40は、当該画素領域を変化領域候補として抽出する(ステップST407)。
一方、差分値が閾値未満である場合(ステップST406の“NO”の場合)、当該画素領域は変化領域でないと判断し、ステップST408の処理に進む。
The difference value obtained in step ST405 is multi-value data of 8 bits per pixel like the distance data, and the change
On the other hand, when the difference value is less than the threshold (in the case of “NO” in step ST406), it is determined that the pixel area is not a change area, and the process proceeds to step ST408.
その後、変化領域抽出部40は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST408)。
ステップST408において、8×4画素全てについて処理を行っていない場合(ステップST408の“NO”の場合)、ステップST405の処理に戻り、上述した処理を繰り返す。
ステップST408において、8×4画素全てについて処理を行った場合(ステップST408の“YES”の場合)、変化領域抽出部40は、抽出した変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。
Thereafter, the change
In step ST408, when processing has not been performed for all 8 × 4 pixels (in the case of “NO” in step ST408), the process returns to step ST405, and the above-described process is repeated.
In step ST408, when processing is performed on all 8 × 4 pixels (in the case of “YES” in step ST408), the change
3Dマスク部70のマスク識別部701は、現データが示す各空間位置について、3Dマスクの設定された空間位置(マスク位置)と一致するか否かを識別する(ステップST409)。
The
ステップST409において、現データが示す空間位置がマスク位置と一致すると識別した場合(ステップST409の“YES”の場合)、3Dマスク部70の書換部702は、変化領域候補の画素のうち、マスク位置と一致した空間位置を示す現データの画素に対応する画素について、当該画素に付与されている差分値を「0」に書き換える(ステップST410)。
In step ST409, when it is identified that the space position indicated by the current data matches the mask position (in the case of “YES” in step ST409), the
ステップST409において、現データが示す空間位置がマスク位置に一致しないと識別した場合(ステップST409の“NO”の場合)、3Dマスク部70の書換部702は、変化領域候補の画素のうち、マスク位置と一致しない空間位置を示す現データの画素に対応する画素について、当該画素に付与されている差分値をそのままの値とする(ステップST411)。
If it is determined in step ST409 that the space position indicated by the current data does not match the mask position (in the case of “NO” in step ST409), the
その後、マスク識別部701は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST412)。
ステップST412において、8×4画素全てについて処理を行っていない場合(ステップST412の“NO”の場合)、ステップST409の処理に戻り、上述した処理を繰り返す。
ステップST412において、8×4画素全てについて処理を行った場合(ステップST412の“YES”の場合)、書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
Thereafter, the
In step ST412, when processing has not been performed on all 8 × 4 pixels (in the case of “NO” in step ST412), the process returns to step ST409, and the above-described process is repeated.
In step ST412, when processing has been performed for all 8 × 4 pixels (in the case of “YES” in step ST412), rewriting
ここで、3Dマスク部70がステップST409〜ステップST412において差分値を書き換える処理(以下「3Dマスク処理」という。)の効果について、図を用いて説明する。
まず、図5は、一般的なカメラで撮影した画像において、2Dマスクを用いて誤報を避ける方法について説明するための図である。図5Aは、例えば、背景200として床501と木502、移動する対象物201として歩行者503が撮影される場合の、一般的なカメラの視野をイメージした図を示している。当該例において、木502は風に揺れ、まれに移動する対象物として誤認され、誤報を生じさせるものと仮定する。図5Bは、図5Aに示すような視野を撮影した画像において、木502による誤報を避けるための2Dマスク504を設定した場合の画像の一例を示した図である。
2Dマスクとは、カメラ視野上において視界を遮るマスクであり、当該2Dマスクに隠された箇所は、電気的に遮蔽され見えなくなる。
図5Bでは、2Dマスク504が、誤報の原因となる木502を隠すように設定されている。これにより、画像上で木502は見えなくなり、誤報の原因となることがなくなる。
Here, the effect of the process in which the
First, FIG. 5 is a diagram for describing a method of avoiding false alarm using a 2D mask in an image captured by a general camera. FIG. 5A shows, for example, an image of the field of view of a general camera when a
The 2D mask is a mask that blocks the field of view on the camera view, and the portion hidden by the 2D mask is electrically shielded and can not be seen.
In FIG. 5B, a
しかしながら、2Dマスク504は、図5Bに示すように、木502と同時に歩行者503も一部遮蔽してしまう。したがって、歩行者503が、画像上の2Dマスク504の位置を移動する際には、当該歩行者503の発見が困難となり、発報対象の見落とし(以下「失報」という。)が生じ得る。
However, as shown in FIG. 5B, the
そこで、実施の形態1に係る監視装置100では、3次元レーザスキャナの視野において、3Dマスク部70が3Dマスク処理を行うことで、木502と対象物201とを区別して遮蔽するようにし、対象物201に対する失報を防止するとともに、木502に対する誤報を防止するようにしている。
以下、3Dマスク処理の詳細について説明する。
Therefore, in the
The details of the 3D mask processing will be described below.
図6は、実施の形態1において、3次元レーザスキャナ10の視野を仮想的に複数のグリッドに分割した立体モデルの一例を示す図である。
図6において、1つのキューブ状のグリッドは、レーザ照射1ポイントの測定点を示すものであり、監視領域である空間は、X方向8グリッド×Y方向4グリッド×Z方向4グリッドの全128個のグリッドに分割されているものとする。
FIG. 6 is a diagram showing an example of a three-dimensional model in which the field of view of the three-
In FIG. 6, one cube-shaped grid indicates one measurement point of laser irradiation, and a space which is a monitoring area is a total of 128 X grids x Y grids 4 grids x Z grids 4 grids. It is assumed that it is divided into grids.
図7は、実施の形態1において、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。
図7Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図7Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図7Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 7 shows how the
FIG. 7A is a model showing the positional relationship of the three-
図7Cに示すように、床501は、3次元レーザスキャナ10の俯角により、奥に行けば行くほど高い位置に見える。また、木502および歩行者503は、同じ大きさであるにもかかわらず、奥にある木502は、小さく測定される。
As shown in FIG. 7C, the
図7A〜図7Bにおいて、床501、木502および歩行者503に相当するグリッド以外のグリッドは、3次元レーザスキャナ10において距離が得られなかったグリッドである。この実施の形態1において、3次元レーザスキャナ10において距離が得られなかったグリッドをブランクグリッド505ともいうものとする。
7A to 7B, the grids other than the grids corresponding to the
図6,7に示したように、3次元レーザスキャナ10の視野上で、背景200の一部を構成する木502と、対象物201である歩行者503とが重なっているが、移動する物体である歩行者503を発報対象とし、風に揺れる木502は発報対象外とする必要がある。
しかしながら、3次元レーザスキャナ10から得られる情報だけでは、点群データ17の各画素における距離データZが歩行者503に相当するのか、木502に相当するのかの情報は含まれておらず、歩行者503も木502も発報対象とし得る。これに対し、発報不要な木502を遮蔽すべく、図5を用いて説明したような2Dマスク504を設定したとすると、3次元レーザスキャナ10の視野上の各グリッドは、図8に示すようになる。
As shown in FIGS. 6 and 7, in the field of view of the three-
However, the information obtained from the three-
図8は、例えば、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、2Dマスク504を設定した場合のイメージの一例である。
図8Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図8Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 8 shows, for example, a 2D model showing how a
FIG. 8A is a model showing the positional relationship of the three-
図8Bでは、2Dマスク504を、仮想的に8×4×4個のグリッド内に展開したものとしている。2Dマスク504は、X−Y方向の平面において定義されるものであり、Z方向の情報を有していない。したがって、図8Bに示すように、2Dマスク504は、3次元レーザスキャナ10からみた手前側から奥側まで、2Dマスク504が設定されたX−Y方向の領域におけるZ方向のすべての位置において視界を遮ることになる。
この場合、図8Cに示すように、歩行者503が、2Dマスク504の位置を移動する際には、歩行者503の一部も遮蔽してしまうため、失報が生じ得る。
In FIG. 8B, it is assumed that the
In this case, as shown in FIG. 8C, when the
そこで、実施の形態1では、上述のとおり、3Dマスク部70が3Dマスク処理を行うことで、背景200と対象物201とを区別して遮蔽するようにした。
Therefore, in the first embodiment, as described above, the
図9は、実施の形態1において、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、3Dマスク506を設定したイメージの一例である。
図9Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図9Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図9Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 9 shows how the
FIG. 9A is a model showing the positional relationship of the three-
図9Bでは、3Dマスク506が、8×4×4個のグリッド内に設定されたイメージの一例を示している。具体的には、図9Bでは、3Dマスク506が木502を遮蔽するように、12個のグリッドからなる直方体として3次元レーザスキャナ10の視野における木502の位置に予め設定されていたものとする。
3Dマスク506は、監視領域の空間をX方向、Y方向およびZ方向に分割した複数のグリッドのうち、監視装置のユーザが意図するグリッドのみに設定することができるため、2Dマスク504とは異なり、3次元レーザスキャナ10の視野において、ユーザが意図する一部のZ方向位置での視界のみを遮ることができる。
FIG. 9B shows an example of an image in which the
Unlike the
図9Bでは、3次元レーザスキャナ10の視野のZ方向において、木502が存在する位置にのみ3Dマスク処理が実施される。したがって、木502は遮蔽されるが、3Dマスクの設定された空間位置よりもZ方向の手前側に存在する歩行者503は遮蔽されない(図9Cも参照)。
In FIG. 9B, 3D mask processing is performed only at the position where the
以上のように、実施の形態1では、3Dマスク部70が3Dマスク処理を行うことで、背景200と対象物201とを区別して3Dマスク506で遮蔽することができる。すなわち、例えば、発報対象とすべき対象物201である歩行者503と、発報対象外とすべき木502とが、3次元レーザスキャナ10の視野上で重なっていても、互いの距離の乖離を利用し、誤報の原因となる木502のみを3Dマスク506で遮蔽することができる。これにより、発報対象とすべき歩行者503を正確に識別して失報を防止するとともに、発報対象外とすべき木502を、発報対象として誤認識してしまうことによる誤報を防止することができる。
As described above, in the first embodiment, the
図4のフローチャートに戻る。
ステップST412において8×4個の画素全てについて処理を行った場合(ステップST412の“YES”の場合)、認識処理部50は、ステップST412で3Dマスク部70が出力した変化領域データに基づき、変化領域が照合条件を満たすか否か判定を行う(ステップST413)。
照合条件を満たす場合(ステップST413の“YES”の場合)、認識処理部50は、変化領域が報知対象であると認識する(ステップST414)。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
一方、照合条件を満たさない場合(ステップST413の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST415)、ステップST401の処理に戻る。
It returns to the flowchart of FIG.
When processing is performed on all 8 × 4 pixels in step ST412 (in the case of “YES” in step ST412), the
If the matching condition is satisfied (in the case of “YES” in step ST413), the
On the other hand, when the matching condition is not satisfied (in the case of “NO” in step ST413), it is determined that the change area is not a notification target (step ST415), and the process returns to step ST401.
ここで、ステップST413における認識処理部50による判定処理を詳細に説明する。
図10は、実施の形態1に係る監視装置100の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、変化領域が監視範囲内に存在するか否か判定を行う(ステップST1001)。なお、ここで、監視範囲とは、監視領域内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
変化領域が監視範囲内に存在する場合(ステップST1001の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の面積を有しているか否か判定を行う(ステップST1002)。ここでいう変化領域とは、図4のステップST411で変化領域と決定された画素のうち、互いに隣接あるいは近接する複数の画素の集合からなる領域のことをいう。
Here, the determination processing by the
FIG. 10 is a flowchart showing determination processing by the
The
When the change area exists in the monitoring range (in the case of “YES” in step ST1001), the
変化領域が所定の面積を有している場合(ステップST1002の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST1003)。所定の縦横寸法を有している場合(ステップST1003の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の移動速度を有しているか否か判定を行う(ステップST1004)。所定の移動速度を有している場合(ステップST1004の“YES”の場合)、図4のステップST414に進み、変化領域が報知対象であると認識される。
When the change area has a predetermined area (in the case of “YES” in step ST 1002), the
一方、変化領域が監視範囲内に存在しない場合(ステップST1001の“NO”の場合)、あるいは、変化領域が所定の面積を有していない場合(ステップST1002の“NO”の場合)、あるいは、変化領域が所定の縦横寸法を有していない場合(ステップST1003の“NO”の場合)、あるいは、変化領域が所定の移動速度を有してない場合(ステップST1004の“NO”の場合)は、図4のステップST415に進み、報知対象でないと判断される。 On the other hand, if the change area does not exist in the monitoring range ("NO" in step ST1001), or if the change area does not have a predetermined area ("NO" in step ST1002), or When the change area does not have predetermined vertical and horizontal dimensions (in the case of "NO" in step ST1003) or in the case where the change area does not have a predetermined moving speed (in the case of "NO" in step ST1004) The process proceeds to step ST415 in FIG. 4 and is determined not to be a notification target.
図4のフローチャートに戻る。
報知処理部60は、ステップST414において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST416)、ステップST401の処理に戻る。
It returns to the flowchart of FIG.
The
図11A,図11Bは、実施の形態1に係る監視装置100のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、処理回路1101により実現される。すなわち、監視装置100は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路1101を備える。
処理回路1101は、図11Aに示すように専用のハードウェアであっても、図11Bに示すようにメモリ1105に格納されるプログラムを実行するCPU(Central Processing Unit)1106であってもよい。
11A and 11B are diagrams showing an example of the hardware configuration of the
In the first embodiment of the present invention, the functions of the current
The
処理回路1101が専用のハードウェアである場合、処理回路1101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
When the
処理回路1101がCPU1106の場合、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70は、HDD(Hard Disk Drive)1102、メモリ1105等に記憶されたプログラムを実行するCPU1106、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD1102、メモリ1105等に記憶されたプログラムは、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1105とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
When the
なお、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、現データ演算部20と、比較データ演算部30については専用のハードウェアとしての処理回路1101でその機能を実現し、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70については処理回路がメモリ1105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
現データ蓄積部21と比較データ蓄積部31は、例えば、HDD1102を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31は、DVD、メモリ1105等によって構成されるものであってもよい。
また、監視装置100は、3次元レーザスキャナ10、あるいは、上位にあるPC300等の装置との通信を行う入力インタフェース装置1103、出力インタフェース装置1104を有する。
In addition, the hardware dedicated to a part of each function of the current
The current
The
以上のように、この実施の形態1によれば、監視装置100は、監視領域を測定した3次元レーザスキャナ10の測定結果から、監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部20と、測定結果から過去の距離データを取得し、比較データに変換する比較データ演算部30と、現データと比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部40と、現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、変化領域抽出部40が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部70を備えるように構成したため、発報対象と不要な検知要素との遠近の差によって生じる発報対象の見落とし、および、誤報を防止することができる。
As described above, according to the first embodiment, the
なお、以上の実施の形態1では、監視装置100は3次元レーザスキャナ10を備えるものとしたが、3次元レーザスキャナ10に限らず、距離を測定するセンサ一般に応用可能である。
また、以上の実施の形態1では、変化領域抽出部40が2値化処理を行い、差分値を2値化データとして取り扱うようにしたが、差分値の2値化処理は、変化領域抽出部40が行うのではなく、代わりに、認識処理部50が行うようにしてもよいし、3Dマスク部70が行うようにしてもよい。演算量が負荷として問題にならない場合は、監視装置100において、2値化処理は行わず、差分値をそのまま用いて各部における処理を行うようにしてもよい。
In the first embodiment described above, the
In the first embodiment described above, the change
また、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 Further, within the scope of the invention of the present application, it is possible to deform any component of the embodiment or omit any component of the embodiment.
10 3次元レーザスキャナ、11 レーザ発光ユニット、12 レーザ光パルス、13 分散機構、14 分散レーザ光パルス、15 レーザ反射光、16 レーザ受光ユニット、17 点群データ、20 現データ演算部、21 現データ蓄積部、30 比較データ演算部、31 比較データ蓄積部、40 変化領域抽出部、50 認識処理部、60 報知処理部、70 3Dマスク部、100 監視装置、200 背景、201 対象物、300 PC、501 床、502 木、503 歩行者、504 2Dマスク、505 ブランクグリッド、506 3Dマスク、701 マスク識別部、702 書換部、1101 処理回路、1102 HDD、1103 入力インタフェース装置、1104 出力インタフェース装置、1105 メモリ、1106 CPU。
10 three-
Claims (3)
前記測定結果から過去の前記距離データを取得し、比較データに変換する比較データ演算部と、
前記現データと前記比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、
前記現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、前記変化領域抽出部が抽出した変化領域候補から、前記マスク位置に一致する空間位置を示すと判定された前記現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部
とを備えた監視装置。 A current data calculation unit which acquires distance data to an object present in the monitoring area from the measurement results of the three-dimensional laser scanner which measured the monitoring area, and uses it as current data;
A comparison data operation unit that acquires the past distance data from the measurement result and converts it into comparison data;
A change area extraction unit which calculates a difference value between the current data and the comparison data and extracts an area having the difference value equal to or more than a threshold as a change area candidate;
It identifies whether or not the spatial position indicated by the current data matches the mask position which is the set spatial position of the 3D mask, and matches the mask position from the change area candidate extracted by the change area extraction unit A monitoring apparatus comprising: a 3D mask unit which excludes a change area candidate corresponding to the area of the current data determined to indicate a spatial position and determines a change area.
前記現データの示す各空間位置が前記マスク位置に一致するか否かを識別するマスク識別部と、
前記マスク識別部によって前記マスク位置に一致する空間位置を示すと識別された前記現データの領域に対応する変化領域候補の前記差分値を0に書き換える書換部とを有する
ことを特徴とする請求項1記載の監視装置。 The 3D mask unit is
A mask identification unit that identifies whether or not each spatial position indicated by the current data matches the mask position;
A rewriting unit that rewrites the difference value of the change area candidate corresponding to the area of the current data identified as indicating a space position coincident with the mask position by the mask identification unit to 0; The monitoring device according to 1.
ことを特徴とする請求項1または請求項2記載の監視装置。 The recognition process part which performs recognition processing of whether the said change area is alerting | reporting object based on the feature-value of the change area which the said 3D mask part determined was provided. It was characterized by the above-mentioned. Monitoring equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170322A JP7128568B2 (en) | 2017-09-05 | 2017-09-05 | monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170322A JP7128568B2 (en) | 2017-09-05 | 2017-09-05 | monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046295A true JP2019046295A (en) | 2019-03-22 |
JP7128568B2 JP7128568B2 (en) | 2022-08-31 |
Family
ID=65814313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017170322A Active JP7128568B2 (en) | 2017-09-05 | 2017-09-05 | monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7128568B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020193814A (en) * | 2019-05-24 | 2020-12-03 | 三菱電機株式会社 | Monitoring device and three-dimensional laser scanner |
CN115183763A (en) * | 2022-09-13 | 2022-10-14 | 南京北新智能科技有限公司 | Personnel map positioning method based on face recognition and grid method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03138596A (en) * | 1989-10-25 | 1991-06-12 | Ikegami Tsushinki Co Ltd | Moving body detecting device |
JP2007249722A (en) * | 2006-03-17 | 2007-09-27 | Hitachi Ltd | Object detector |
JP2009124618A (en) * | 2007-11-19 | 2009-06-04 | Hitachi Ltd | Camera apparatus, and image processing device |
WO2016002776A1 (en) * | 2014-07-03 | 2016-01-07 | 三菱電機株式会社 | Monitoring apparatus |
-
2017
- 2017-09-05 JP JP2017170322A patent/JP7128568B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03138596A (en) * | 1989-10-25 | 1991-06-12 | Ikegami Tsushinki Co Ltd | Moving body detecting device |
JP2007249722A (en) * | 2006-03-17 | 2007-09-27 | Hitachi Ltd | Object detector |
JP2009124618A (en) * | 2007-11-19 | 2009-06-04 | Hitachi Ltd | Camera apparatus, and image processing device |
WO2016002776A1 (en) * | 2014-07-03 | 2016-01-07 | 三菱電機株式会社 | Monitoring apparatus |
Non-Patent Citations (1)
Title |
---|
"水域・水際向け監視センサiLScanner", IHI技報 第52巻 第2号, JPN6021018865, 1 June 2012 (2012-06-01), ISSN: 0004675706 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020193814A (en) * | 2019-05-24 | 2020-12-03 | 三菱電機株式会社 | Monitoring device and three-dimensional laser scanner |
JP7361496B2 (en) | 2019-05-24 | 2023-10-16 | 三菱電機株式会社 | monitoring device |
CN115183763A (en) * | 2022-09-13 | 2022-10-14 | 南京北新智能科技有限公司 | Personnel map positioning method based on face recognition and grid method |
Also Published As
Publication number | Publication date |
---|---|
JP7128568B2 (en) | 2022-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guan et al. | Automated pixel-level pavement distress detection based on stereo vision and deep learning | |
US10132611B2 (en) | Laser scanner | |
TWI566204B (en) | Three dimensional object recognition | |
US9117281B2 (en) | Surface segmentation from RGB and depth images | |
JP5822255B2 (en) | Object identification device and program | |
JP6667065B2 (en) | Position estimation device and position estimation method | |
EP2881702A1 (en) | Image processing system, and image processing method | |
WO2012034236A1 (en) | System and method for detailed automated feature extraction from data having spatial coordinates | |
Guldur | Laser-based structural sensing and surface damage detection | |
Tang et al. | A comparative analysis of depth-discontinuity and mixed-pixel detection algorithms | |
JP6781432B2 (en) | Radio wave propagation simulation model creation method, creation system, creation device and creation program | |
Weinmann et al. | Preliminaries of 3D point cloud processing | |
Cabo et al. | Mobile Laser Scanner data for automatic surface detection based on line arrangement | |
US20160259034A1 (en) | Position estimation device and position estimation method | |
Benveniste et al. | A color invariant for line stripe-based range scanners | |
JP2019046295A (en) | Monitoring device | |
Razali et al. | A hybrid point cloud reality capture from terrestrial laser scanning and UAV-photogrammetry | |
CN117095038A (en) | Point cloud filtering method and system for laser scanner | |
CN110291557B (en) | Monitoring device | |
Madhavan et al. | A computer vision based approach for 3D building modelling of airborne laser scanner DSM data | |
WO2022241574A1 (en) | Texture mapping to polygonal models for industrial inspections | |
JP7054989B2 (en) | Monitoring device | |
EP4131155A1 (en) | Point cloud data processing device, point cloud data processing method, and program | |
US20210389460A1 (en) | Image processing device, control program, and image processing method | |
JP6530685B2 (en) | Object detection apparatus, object detection system, object detection method and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200428 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7128568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |