JP2019046295A - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP2019046295A
JP2019046295A JP2017170322A JP2017170322A JP2019046295A JP 2019046295 A JP2019046295 A JP 2019046295A JP 2017170322 A JP2017170322 A JP 2017170322A JP 2017170322 A JP2017170322 A JP 2017170322A JP 2019046295 A JP2019046295 A JP 2019046295A
Authority
JP
Japan
Prior art keywords
mask
data
change area
unit
current data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017170322A
Other languages
Japanese (ja)
Other versions
JP7128568B2 (en
Inventor
健一 新房
Kenichi Shinbo
健一 新房
恭佑 磯野
Kyosuke Isono
恭佑 磯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017170322A priority Critical patent/JP7128568B2/en
Publication of JP2019046295A publication Critical patent/JP2019046295A/en
Application granted granted Critical
Publication of JP7128568B2 publication Critical patent/JP7128568B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a monitoring device capable of preventing a warning object from being overlooked and preventing an erroneous warning.SOLUTION: A monitoring device includes: a current data calculation part for acquiring distance data till an object present in a monitoring area from a measurement result of a three-dimensional laser scanner for measuring a monitoring area so as to take this data as the current data; a comparison data calculation part for acquiring past distance data from the measurement result so as to convert this data into comparison data; a change area extraction part for calculating a difference value between the current data and the comparison data and extracting the area in which a difference value is equal to or more than a threshold value as a change area candidate; and a 3D mask part for identifying whether a spatial position showing the current data matches a mask position which is the spatial position set on the 3D mask, excluding the change area candidate corresponding to the area of the current data determined as showing the spatial position matching the mask position from the change area candidate, and determining the change area.SELECTED DRAWING: Figure 1

Description

この発明は、監視領域に存在する対象物を認識する監視装置に関するものである。   The present invention relates to a monitoring apparatus that recognizes an object present in a monitoring area.

従来、カメラ画像を用いて対象物を検知および認識する技術が存在する。カメラ画像は2次元データであることから、当該カメラ画像から得られる情報も2次元座標、輝度、および、色などに限定される。従来技術の多くは輝度背景差分方式を用いて、監視領域内の変化領域を抽出して対象物を認識している。しかし、変化領域は、対象物以外の物体等を検知したことによっても抽出され得る。対象物以外の物体等を検知したことによって抽出された変化領域は、誤報が生じる原因となる。そこで、不要な検知要素である対象物以外の物体等が検知されないように、不要な検知要素に対して2Dマスクによる遮蔽を行うことによって、誤報を防止する技術が一般的に採用されている。
例えば、特許文献1には、2Dマスクとして、櫛形マスクを使用して、路面の水たまりのような不要な検知要素が検知されないようにする監視用画像処理装置が開示されている。特許文献1に開示された装置では、例えば、不要な検知要素である水たまりの水紋のような小さい動きと、当該水たまりの前を横切る発報対象である対象物(特許文献1においては人物)の大きな動きとを、「水紋は、人物と比較しある特定の場所範囲に不定期にあらわれる」、「水紋は、人物と比較し比較的小さな変化領域である」、および、「水紋は、人物と比較し、横向き櫛形マスクで分断されやすい形状を持つ」という、性質の差を利用することで区別する。
Conventionally, techniques exist for detecting and recognizing an object using a camera image. Since a camera image is two-dimensional data, information obtained from the camera image is also limited to two-dimensional coordinates, luminance, and color. Most of the prior art uses a luminance background subtraction method to extract a change area in a monitoring area to recognize an object. However, the change area can also be extracted by detecting an object other than the target. A change area extracted by detecting an object or the like other than the object causes an erroneous notification. Therefore, a technique is generally employed to prevent false alarms by shielding unnecessary detection elements with a 2D mask so that objects other than the target objects, which are unnecessary detection elements, are not detected.
For example, Patent Document 1 discloses a monitoring image processing apparatus that uses a comb-shaped mask as a 2D mask to prevent detection of unnecessary detection elements such as a puddle on a road surface. In the device disclosed in Patent Document 1, for example, a small movement such as a water mark of a puddle, which is an unnecessary detection element, and a target object that is a notification target that crosses in front of the puddle (a person in Patent Document 1) "The water mark appears irregularly in a certain place range compared to the person", "the water mark is a relatively small change area compared to the person", and "the water mark Is distinguished by utilizing the difference in the property that it has a shape that is more likely to be separated by the sideways comb-shaped mask, as compared to the person.

特開平10−105687号公報Japanese Patent Application Laid-Open No. 10-105687

しかしながら、2次元データであるカメラ画像に対して2Dマスクによる遮蔽を行う従来の技術では、不要な検知要素と発報対象とがカメラの視野上で重なっている場合、あるいは、両者がカメラの視野上で近接した位置に存在する場合、不要な検知要素とともに発報対象まで遮蔽されてしまい、発報対象の見落しが生じるという課題があった。
また、特許文献1に開示された技術においても、カメラ画像上における不要な検知要素と発報対象との大きさの差がない場合は、櫛形マスクで分別できる性質の差が小さくなり、不要な検知要素と発報対象とを精度よく区別することができず、依然として発報対象の見落としが生じるという課題があった。
However, in the related art in which shielding with a 2D mask is performed on a camera image that is two-dimensional data, unnecessary detection elements and a notification target overlap in the field of view of the camera, or both are in the field of view of the camera When it exists in the position which adjoined above, with the unnecessary detection element, even the alerting | reporting object was shielded, and the subject that the alerting | reporting object was overlooked occurred.
Further, even in the technique disclosed in Patent Document 1, when there is no difference in size between the unnecessary detection element and the notification target on the camera image, the difference in properties that can be separated by the comb-shaped mask becomes small, and is unnecessary. There is a problem that the detection element and the notification target can not be distinguished with high accuracy, and the notification target is still overlooked.

この発明は、上記のような課題を解決するためになされたもので、発報対象の見落としを防止するとともに、誤報を防止することができる監視装置を提供することを目的とする。   The present invention has been made to solve the problems as described above, and has an object to provide a monitoring device capable of preventing an oversight of a notification target and preventing a false alarm.

この発明に係る監視装置は、監視領域を測定した3次元レーザスキャナの測定結果から、監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部と、測定結果から過去の距離データを取得し、比較データに変換する比較データ演算部と、現データと比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、変化領域抽出部が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部とを備えたものである。   The monitoring apparatus according to the present invention acquires the distance data to the object present in the monitoring area from the measurement result of the three-dimensional laser scanner which measured the monitoring area, and uses the current data operation unit as current data and the measurement result in the past. Distance data is acquired, and a comparison data operation unit that converts the data into comparison data, and a difference value between current data and comparison data are calculated, and a change area extraction that extracts an area having the difference value equal to or more than a threshold as a change area candidate It identifies whether the space position indicated by the current data matches the mask position that is the set space position of the 3D mask, and matches the mask position from the change area candidate extracted by the change area extraction unit A 3D mask unit is provided which excludes the change area candidate corresponding to the area of the current data determined to indicate the spatial position and determines the change area.

この発明によれば、発報対象の見落としを防止するとともに、誤報を防止することができる。   According to the present invention, it is possible to prevent an oversight of a notification target and to prevent an erroneous notification.

実施の形態1に係る監視装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a monitoring device according to Embodiment 1. 3次元レーザスキャナの構成を示す図である。It is a figure which shows the structure of a three-dimensional laser scanner. 3次元レーザスキャナの分散機構を示す説明図である。It is explanatory drawing which shows the dispersion | distribution mechanism of a three-dimensional laser scanner. 実施の形態1に係る監視装置の動作を示すフローチャートである。5 is a flowchart showing the operation of the monitoring device according to the first embodiment. 一般的なカメラで撮影した画像において、2Dマスクを用いて誤報を避ける方法について説明するための図である。It is a figure for demonstrating the method to avoid a misreport using 2D mask in the image image | photographed with the common camera. 実施の形態1において、3次元レーザスキャナの視野を仮想的に複数のグリッドに分割した立体モデルの一例を示す図である。In Embodiment 1, it is a figure which shows an example of the three-dimensional model which virtually divided | segmented the visual field of the three-dimensional laser scanner into several grids. 実施の形態1において、3次元レーザスキャナの視野にある床、木および歩行者が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例であって、図7Aは、3次元レーザスキャナ、床、木および歩行者を横から見た位置関係を示すモデルであり、図7Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図7Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。In the first embodiment, it is an example of a model showing how a floor, trees and pedestrians in the field of view of a three-dimensional laser scanner look in a grid of 8 × 4 × 4. 7A is a model showing a three-dimensional laser scanner, a positional relationship when the floor, trees and pedestrians are viewed from the side, and FIG. 7B is a model in which 8 × 4 × 4 grids in close contact on the left side in the figure. In the figure, the right side is the model in which the 8 × 4 × 4 grids closely attached shown on the left side of the figure are sliced horizontally into 4 so that all grids can be seen, and FIG. 7C shows 3 It is an image model in which the field of view of a two-dimensional laser scanner is assembled into a virtual image. 例えば、3次元レーザスキャナの視野にある床、木および歩行者が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、2Dマスクを設定した場合のイメージの一例であって、図8Aは、3次元レーザスキャナ、床、木および歩行者を横から見た位置関係を示すモデルであり、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図8Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。For example, if a 2D mask is set on a model that shows how floors, trees and pedestrians in the field of view of a three-dimensional laser scanner look in an 8 × 4 × 4 grid, As an example, FIG. 8A is a model showing the positional relationship of a three-dimensional laser scanner, a floor, a tree and a pedestrian as viewed from the side, and FIG. 8B is 8 × 4 × 4 on the left side in the figure. The model in which the grids are in close contact, the model on the right side is the model in which the 8 × 4 × 4 grids are in close contact, shown on the left on the figure, and sliced horizontally into four to make all grids visible FIG. 8C is an image model in which the field of view of the three-dimensional laser scanner is assembled into a virtual image. 実施の形態1において、3次元レーザスキャナの視野にある床、木および歩行者が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、3Dマスクを設定したイメージの一例であって、図9Aは、3次元レーザスキャナ、床、木および歩行者を横から見た位置関係を示すモデルであり、図9Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図9Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。In the first embodiment, a 3D mask is set to a model showing how a floor, tree and pedestrian in the field of view of a three-dimensional laser scanner look in an 8 × 4 × 4 grid. FIG. 9A is an example of an image, and FIG. 9A is a model showing a positional relationship of a three-dimensional laser scanner, a floor, a tree and a pedestrian viewed from the side, and FIG. 9B is 8 × 4 × 4 on the left side in the figure. A model in which 8 grids are in close contact with each other, and a model in which 8 × 4 × 4 grids are in close contact, shown on the left and on the right in the figure, sliced into 4 in the horizontal direction so that all grids can be seen FIG. 9C is an image model in which the field of view of the three-dimensional laser scanner is assembled into a virtual image. 実施の形態1に係る監視装置の認識処理部による判定処理を示すフローチャートである。It is a flowchart which shows the determination processing by the recognition process part of the monitoring apparatus which concerns on Embodiment 1. FIG. 図11A,図11Bは、この発明の実施の形態1に係る監視装置のハードウェア構成の一例を示す図である。11A and 11B are diagrams showing an example of the hardware configuration of the monitoring apparatus according to Embodiment 1 of the present invention.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る監視装置100の構成を示すブロック図である。
監視装置100は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、および、3Dマスク部70で構成されている。3Dマスク部70は、マスク識別部701、および、書換部702を備える。
なお、図1において、監視装置100外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、監視装置100の上位にある装置であり、ブザー等の発報処理を行うPC(Personal Computer)300を記載している。なお、ここでは、監視装置100の上位にある装置は、一例としてPC300としているが、監視装置100の上位にある装置は、監視装置100における報知処理に基づき発報処理を行うことができるものであればよく、例えば、音声出力装置としてもよい。監視装置100における報知処理の詳細は後述する。
Hereinafter, in order to explain the present invention in more detail, a mode for carrying out the present invention will be described according to the attached drawings.
Embodiment 1
FIG. 1 is a block diagram showing the configuration of the monitoring apparatus 100 according to the first embodiment.
The monitoring apparatus 100 includes a three-dimensional laser scanner 10, a current data calculation unit 20, a current data storage unit 21, a comparison data calculation unit 30, a comparison data storage unit 31, a change area extraction unit 40, a recognition processing unit 50, and a notification processing unit 60. , And 3D mask unit 70. The 3D mask unit 70 includes a mask identification unit 701 and a rewrite unit 702.
In FIG. 1, a background 200 showing the scanning range of the three-dimensional laser scanner 10 outside the monitoring apparatus 100, an object 201 standing in front of the background 200, and an apparatus above the monitoring apparatus 100 A personal computer (PC) 300 that performs information processing is described. Here, although the apparatus above the monitoring apparatus 100 is the PC 300 as an example, the apparatus above the monitoring apparatus 100 can perform notification processing based on notification processing in the monitoring apparatus 100. For example, it may be an audio output device. The detail of the alerting | reporting process in the monitoring apparatus 100 is mentioned later.

3次元レーザスキャナ10は、スキャン範囲に存在する対象物201等の3次元情報を取得して、当該対象物201等までの距離等を計測する。
ここで、図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。したがって、図2の例における3次元レーザスキャナ10は、X方向に6画素分およびY方向に2画素分で、全12画素分の解像度を有しているといえる。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
The three-dimensional laser scanner 10 acquires three-dimensional information of an object 201 or the like present in a scan range, and measures the distance to the object 201 or the like.
Here, FIG. 2 is a diagram showing the configuration of the three-dimensional laser scanner 10. As shown in FIG. As shown in FIG. 2, the three-dimensional laser scanner 10 incorporates a laser light emitting unit 11, a dispersion mechanism 13 using a rotating mirror, and a laser light receiving unit 16, scans a range indicated by a background 200 to obtain distance data and intensity Get data The laser light emitting unit 11 emits a laser light pulse 12.
The dispersing mechanism 13 is a mechanism for dispersing the laser light pulse 12 emitted from the laser light emitting unit 11 in the wide angle range. In the example of FIG. 2, the dispersing mechanism 13 using a rotating mirror is shown. Details of the dispersing mechanism 13 using the rotating mirror will be described later. The dispersed laser light pulse 14 dispersed by the dispersing mechanism 13 is irradiated and reflected on the background 200 or an object (not shown in FIG. 2) to form the laser reflected light 15. In the example of FIG. 2, the dispersed laser light pulse 14 is sequentially dispersed and irradiated in the X direction and the Y direction of the background 200. Specifically, it is dispersedly irradiated at six points in the X direction of the background 200, two points in the Y direction of the background 200, and a total of 12 points. Therefore, it can be said that the three-dimensional laser scanner 10 in the example of FIG. 2 has a resolution of 12 pixels in total for 6 pixels in the X direction and 2 pixels in the Y direction.
In addition, although it was set as the dispersion | distribution mechanism 13 which used the rotation mirror in FIG. 2, you may apply the other dispersion | distribution mechanism. For example, a scanless optical system that scans a mirror without a motor may be used.

レーザ受光ユニット16は、反射対象で反射されたレーザ反射光15を受光し、発光から受光までの時間差に基づいて、反射対象までの距離を算出し、距離データとする。図2の例では、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散された照射位置全てに対して、個別に距離を算出し、距離データとする。さらに、レーザ受光ユニット16は、分散された照射位置全てに対して、照射した光量と受光した光量の比率に基づいて反射対象の各ポイントにおける反射率を算出し、強度データとする。レーザ受光ユニット16で算出された距離データおよび強度データは、図1で示した現データ演算部20および比較データ演算部30に出力される。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による点群データ17の現データ演算部20、および、比較データ演算部30への出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20、および、比較データ演算部30へ出力する。
The laser light receiving unit 16 receives the laser reflected light 15 reflected by the reflection target, calculates the distance to the reflection target based on the time difference from light emission to light reception, and uses it as distance data. In the example of FIG. 2, distances are individually calculated for all the irradiation positions dispersed at 12 points in total, 6 points in the X direction of the background 200 and 2 points in the Y direction of the background 200, and used as distance data. Furthermore, the laser light receiving unit 16 calculates the reflectance at each point to be reflected based on the ratio of the amount of light emitted to the amount of light received for all the dispersed irradiation positions, and uses it as intensity data. The distance data and the intensity data calculated by the laser light receiving unit 16 are output to the current data calculation unit 20 and the comparison data calculation unit 30 shown in FIG.
The distance data and the intensity data for all the irradiation positions calculated by the laser light receiving unit 16 will be referred to as point cloud data 17.
The output of the point cloud data 17 by the laser light receiving unit 16 to the current data operation unit 20 and the comparison data operation unit 30 is performed in frame units. The laser receiving unit 16 is point cloud data 17 obtained by scanning the entire background 200 once, that is, in the example of FIG. 2, a total of 12 points in the X direction of the background 200 and 2 points in the Y direction. The point cloud data 17 obtained by scanning once for each point is output to the current data computing unit 20 and the comparison data computing unit 30 as point cloud data 17 for one frame.

次に、回転ミラーを用いた分散機構13の詳細について、図3を参照しながら説明を行う。分散機構13は、第1の回転ミラー13a、第1のモータ13b、第2の回転ミラー13cおよび第2のモータ13dで構成されている。第1の回転ミラー13aは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、レーザ光パルス12を第1の回転ミラー13aの面に対して水平方向に分散する。水平方向に分散された水平分散レーザ光パルス13eは、常に同一の角度で分散される。第1のモータ13bは、第1の回転ミラー13aを駆動させる駆動源である。第2の回転ミラー13cは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、水平分散レーザ光パルス13eをさらに垂直方向に分散する。垂直方向に分散された垂直分散レーザ光パルス13fは、常に同一の角度で分散される。第2のモータ13dは、第2の回転ミラー13cを駆動させる駆動源である。   Next, the details of the dispersing mechanism 13 using a rotating mirror will be described with reference to FIG. The dispersing mechanism 13 includes a first rotating mirror 13a, a first motor 13b, a second rotating mirror 13c, and a second motor 13d. The first rotary mirror 13a operates in synchronization with the pulse frequency of the incident laser light pulse 12, and disperses the laser light pulse 12 in the horizontal direction with respect to the surface of the first rotary mirror 13a. The horizontally dispersed horizontally dispersed laser light pulses 13e are always dispersed at the same angle. The first motor 13 b is a drive source for driving the first rotating mirror 13 a. The second rotating mirror 13c operates in synchronization with the pulse frequency of the incident laser light pulse 12, and further disperses the horizontal dispersion laser light pulse 13e in the vertical direction. Vertically dispersed vertical dispersion laser light pulses 13f are always dispersed at the same angle. The second motor 13d is a drive source for driving the second rotating mirror 13c.

以上の動作により、3次元レーザスキャナ10は、以下に示すX,Y,およびZの3次元情報を得る。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
水平方向座標Xは、各画素の水平方向位置を示す値であり、垂直方向座標Yは、各画素の垂直方向位置を示す値である。図2の例では、水平方向座標Xは1〜6の範囲の整数、垂直方向座標Yは1〜2の範囲の整数となる。また、距離データZは、各画素の位置において得られたZ軸方向の奥行き情報である。距離データZについては、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで特定される複数の画素に対して、それぞれ1つずつ測定された距離データZが得られる。図2の例では、12個の画素それぞれについて、対応する距離データZが得られる。
したがって、3次元情報における、水平方向座標Xと垂直方向座標Yと距離データZとの複数の組み合わせについては、それぞれの組み合わせが、ある特定の空間位置を示すものである。
3次元情報には、Z軸方向の奥行き情報である距離データZが含まれているため、対象物が3次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、Z軸方向の移動量を用いて差分を得ることができる。
By the above operation, the three-dimensional laser scanner 10 obtains three-dimensional information of X, Y, and Z shown below.
X: Horizontal coordinate Y; Vertical coordinate Z; Distance data Horizontal coordinate X is a value indicating the horizontal position of each pixel, and vertical coordinate Y is a value indicating the vertical position of each pixel. In the example of FIG. 2, the horizontal coordinate X is an integer in the range of 1 to 6, and the vertical coordinate Y is an integer in the range of 1 to 2. The distance data Z is depth information in the Z-axis direction obtained at the position of each pixel. As for the distance data Z, distance data Z measured one by one is obtained for a plurality of pixels specified by all combinations of the horizontal coordinate X and the vertical coordinate Y. In the example of FIG. 2, the corresponding distance data Z is obtained for each of the 12 pixels.
Therefore, with regard to a plurality of combinations of horizontal coordinate X, vertical coordinate Y and distance data Z in three-dimensional information, each combination indicates a specific spatial position.
Since three-dimensional information includes distance data Z, which is depth information in the Z-axis direction, when the object moves in the Z-axis direction on three-dimensional coordinates, that is, toward the three-dimensional laser scanner 10 Even when going straight, the difference can be obtained using the amount of movement in the Z-axis direction.

現データ演算部20は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、監視領域、すなわち、3次元レーザスキャナ10の測定範囲における現時点の距離データを示す現データとして現データ蓄積部21に蓄積させる。
比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去10フレーム分の距離データから平均距離データを得て比較データとする処理、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする処理等によって行えばよい。これらの変換処理は、対象物201を可能な限り排除した、背景200のみをスキャンしたものに近い距離データを求めるための変換処理である。
なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。
The current data calculation unit 20 acquires the distance data in the point cloud data 17 output from the three-dimensional laser scanner 10 for all the irradiation positions, and the current distance data in the monitoring area, ie, the measurement range of the three-dimensional laser scanner 10 Are stored in the current data storage unit 21 as current data indicating.
The comparison data calculation unit 30 acquires distance data in the point cloud data 17 output from the three-dimensional laser scanner 10 for all irradiation positions, converts it into comparison data, and stores the data in the comparison data storage unit 31. The conversion processing to comparison data is, for example, processing of obtaining average distance data from the distance data of the past 10 frames retroactively from the acquired distance data and using it as comparison data, or distance data of the frame immediately before the input distance data Can be performed by processing such as obtaining comparison data. These conversion processes are conversion processes for obtaining distance data close to those obtained by scanning only the background 200, excluding the object 201 as much as possible.
The comparison data calculation unit 30 stores distance data acquired from the three-dimensional laser scanner 10 in a data storage unit (not shown), and based on the stored distance data, the distance data traced back in the past You should get it.

変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域候補として抽出する。一般的に、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変化して取り扱う。なお、現データおよび比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は、「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、対象物201に該当する画素にのみ差分が現れ、得られる差分値は、「背景と対象物との間の距離」を示している。逆に、現データには対象物201が含まれず、現データも比較データも背景200のみが含まれている場合、得られる差分値は「0」となる。
変化領域抽出部40は、差分値が上記閾値以上の画素領域を、変化領域候補として抽出し、変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。変化領域候補データは、具体的には、例えば、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで表される複数の画素について、各画素が変化領域候補であれば、二値化された差分値として「1」との値が、変化領域候補でなければ、二値化された差分値として「0」との値が、それぞれ付与されたデータある。
The change area extraction unit 40 obtains the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31, and compares the current data with the comparison data in pixel units to obtain a difference value. Is calculated, and a pixel area whose calculated difference value is equal to or greater than a preset threshold value is extracted as a change area candidate. Generally, a fixed threshold value is set, and it is changed and handled as binarized data binarized depending on whether the difference value is the set threshold value or more. In addition, since the current data and the comparison data are configured by distance data, the difference value calculated by the change area extraction unit 40 indicates “a difference in distance”. For example, when the background 200 and the object 201 are included in the current data, and only the background 200 is included in the comparison data, a difference appears only in the pixel corresponding to the object 201, and the obtained difference value is "The distance between the object" is shown. Conversely, when the current data does not include the object 201 and both the current data and the comparison data include only the background 200, the obtained difference value is “0”.
The change area extraction unit 40 extracts a pixel area having a difference value equal to or more than the threshold value as a change area candidate, and outputs information of the change area candidate to the 3D mask unit 70 as change area candidate data. Specifically, for example, the change region candidate data is binarized if each pixel is a change region candidate for a plurality of pixels represented by all combinations of horizontal coordinate X and vertical coordinate Y, for example. If the value of “1” is not a change area candidate, the value of “0” is provided as a binarized difference value.

3Dマスク部70は、現データの示す空間位置が、マスク位置に一致するか否かを識別する。マスク位置とは、3Dマスクの設定された空間位置である。そして、3Dマスク部70は、変化領域抽出部40が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する。
なお、「マスク位置に相当する空間位置を示すと判定された現データの領域」は、1または複数の画素の位置を特定することによって示されるものであり、より具体的には、1または複数の水平方向座標Xと垂直方向座標Yとの組み合わせにより特定することができる。
3Dマスクは、監視領域における不要な検知要素を遮蔽するためのものであり、監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に、特定の1または複数のグリッドに対して予め設定されるものである。3Dマスクが設定されたグリッドに対応する空間位置を、3Dマスクの設定された空間位置、あるいは、マスク位置というものとする。詳細は後述する。
The 3D mask unit 70 identifies whether the spatial position indicated by the current data matches the mask position. The mask position is a set spatial position of the 3D mask. Then, the 3D mask unit 70 excludes, from the change area candidates extracted by the change area extraction unit 40, the change area candidate corresponding to the area of the current data determined to indicate the spatial position coincident with the mask position. Decide.
Note that “the region of current data determined to indicate a spatial position corresponding to a mask position” is indicated by specifying the position of one or more pixels, and more specifically, one or more Can be specified by a combination of the horizontal coordinate X and the vertical coordinate Y.
The 3D mask is for shielding unnecessary detection elements in the monitoring area, and when the space as the monitoring area is virtually divided into a plurality of cube-shaped grids, for one or more specific grids. Is set in advance. The spatial position corresponding to the grid in which the 3D mask is set is referred to as the set spatial position or mask position of the 3D mask. Details will be described later.

3Dマスク部70は、マスク識別部701と書換部702とを備える。
マスク識別部701は、現データの示す空間位置がマスク位置に一致するか否かを識別する。具体的には、マスク識別部701は、現データと3Dマスクの設定情報とを取得し、当該現データの各座標における距離データZが示す空間位置について、3Dマスクの設定された空間位置と一致するか否かを識別する。そして、マスク識別部701は、マスク位置を示す現データの全ての画素について、当該全ての画素の位置を示す水平方向座標Xおよび垂直方向座標Yからなる変化領域0値座標データを生成する。
監視領域をどのように複数のグリッドに分割するか、および、3Dマスクをどのグリッドに設定するかは、例えば、監視装置100の設置時等に、予めオペレータ等が設定し、当該設定情報を図示しない適宜の記憶装置に記憶させておく。なお、これらの設定情報を記憶させておく場所は、3Dマスク部70が参照可能な場所であればよい。
The 3D mask unit 70 includes a mask identification unit 701 and a rewrite unit 702.
The mask identification unit 701 identifies whether the spatial position indicated by the current data matches the mask position. Specifically, the mask identification unit 701 acquires the current data and the setting information of the 3D mask, and the space position indicated by the distance data Z at each coordinate of the current data matches the set space position of the 3D mask. Identify whether or not to Then, the mask identifying unit 701 generates, for all pixels of the current data indicating the mask position, change region zero-value coordinate data including horizontal direction coordinates X and vertical direction coordinates Y indicating the positions of all the pixels.
For example, an operator etc. sets beforehand how to divide the monitoring area into a plurality of grids and to which grid the 3D mask is to be set, and the setting information is illustrated. Not stored in an appropriate storage device. The place where the setting information is stored may be a place where the 3D mask unit 70 can refer to.

例えば、上記記憶装置には、監視領域を、X方向8グリッド、Y方向4グリッドおよびZ方向4グリッドに分割することを示す設定情報が記憶される。この場合、監視領域は、合計128個のグリッドに分割される。3Dマスクは、当該128個のグリッドの中の特定のグリッドに対し、例えば、3Dマスクステータスを付与することにより設定することができ、記憶装置には、当該特定のグリッドを示す情報が記憶される。この場合、3Dマスクステータスが付与されたグリッドに対応する空間位置が、マスク位置となる。   For example, setting information indicating that the monitoring area is divided into eight grids in the X direction, four grids in the Y direction, and four grids in the Z direction is stored in the storage device. In this case, the monitoring area is divided into a total of 128 grids. The 3D mask can be set by, for example, applying a 3D mask status to a specific grid in the 128 grids, and the storage device stores information indicating the specific grid. . In this case, the spatial position corresponding to the grid to which the 3D mask status is given is the mask position.

オペレータ等は、適宜の方法で、3Dマスクの設定を行うことができる。例えば、最も簡単な指定方法として、図示しない3Dマスク設定手段を用いて、直接3Dマスクを設定したいグリッドを指定する方法があげられる。ただし、この方法は、設定の対象となるグリッドを1個1個指定することとなるため、作業が膨大になり、オペレータ等にとって負担になり得る。   The operator or the like can set the 3D mask by an appropriate method. For example, as the simplest specification method, there is a method of directly specifying a grid for which 3D mask setting is desired using 3D mask setting means (not shown). However, since this method designates grids to be set one by one, the work becomes enormous, which may be a burden on the operator or the like.

そこで、オペレータ等は、例えば、次に簡単な方法として、「形状指定」および「諸元指定」の2ステップで3Dマスクの設定を行う方法を採用してもよい。
例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「直方体」とし、監視領域を分割した複数のグリッドのうち「底辺4点のグリッドの位置」と「グリッドを単位とした高さ」を指定する入力を行う。また、例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「球体」とし、監視領域を分割した複数のグリッドのうち「球体中心点となるグリッドの位置」と「グリッドを単位とした半径」を指定する。
上記3Dマスク設定手段は、これらの入力情報に基づき、指定された直方体または球体を形成する複数のグリッドを特定し、3Dマスクの設定を行うことができる。したがって、この方法によれば、オペレータ等は、上記のように「形状指定」および「諸元指定」を行うだけでよく、作業負担の軽減となる。
なお、これらは一例に過ぎず、三角錐、円錐、三角柱、円柱等、一般的に定義が明確な形状であれば、「形状指定」および「諸元指定」による3Dマスクの設定方法に、全て使用可能である。また、これらの組み合わせで任意の形状を組み上げることも可能である。
Therefore, the operator or the like may adopt, for example, a method of setting the 3D mask in two steps of “shape designation” and “specification designation” as a simple method next.
For example, with respect to the 3D mask setting unit, the operator or the like makes the shape of the 3D mask "a rectangular solid" and sets "the position of four bottom grids" and "grids" among a plurality of grids into which the monitoring area is divided. Make an input specifying "height". Further, for example, the operator or the like makes the shape of the 3D mask "sphere" with respect to the 3D mask setting means, and "a position of a grid to be a sphere center point" and "grid Specify the radius as a unit.
The 3D mask setting unit can specify a plurality of grids forming the specified rectangular parallelepiped or sphere based on the input information, and can set the 3D mask. Therefore, according to this method, the operator or the like only needs to perform "shape designation" and "specification designation" as described above, which reduces the work load.
In addition, these are only examples, and if it is a shape whose definition is generally clear such as a triangular pyramid, a cone, a triangular prism, a cylinder, etc., the setting method of the 3D mask by "shape designation" and "specification" is all It is usable. Moreover, it is also possible to assemble arbitrary shapes by these combinations.

書換部702は、マスク識別部701によってマスク位置に相当する空間位置を示すと判定された、現データの領域に対応する変化領域候補の差分値を、0に書き換える。具体的には、書換部702は、変化領域抽出部40から変化領域候補データを取得するとともに、マスク識別部701から変化領域0値座標データを取得する。そして、書換部702は、変化領域候補データにおける各画素のうち、変化領域0値座標データが示す位置の画素について、当該画素に付与された差分値を「0」に書き換える。なお、この場合の差分値は、二値化された差分値であり、例えば、書換部702は、変化領域候補データにおける変化領域候補とされた画素のうち、変化領域0値座標データが示す位置の画素については、当該画素に付与された差分値「1」を「0」に書き換えることとなる。
変化領域候補データにおける変化領域候補とされた画素のうち、書換部702によって差分値が「0」に書き換えられた画素は、変化領域候補から除外されることとなる。
書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
The rewriting unit 702 rewrites the difference value of the change area candidate corresponding to the area of the current data, which is determined by the mask identification unit 701 to indicate the space position corresponding to the mask position, to 0. Specifically, the rewrite unit 702 acquires the change area candidate data from the change area extraction unit 40, and acquires the change area zero-value coordinate data from the mask identification unit 701. Then, the rewriting unit 702 rewrites, to “0”, the difference value given to the pixel at the position indicated by the changing area zero value coordinate data among the pixels in the changing area candidate data. The difference value in this case is a binarized difference value. For example, the rewriting unit 702 is a position indicated by the zero-value coordinate data of the change area among the pixels determined as the change area candidate in the change area candidate data. For the pixel of {circle over (1)}, the difference value “1” given to the pixel is rewritten to “0”.
Among the pixels set as the change area candidate in the change area candidate data, a pixel whose difference value is rewritten to “0” by the rewriting unit 702 is excluded from the change area candidates.
The rewriting unit 702 outputs the change area candidate data after rewriting of the difference value to the recognition processing unit 50 as change area data.

認識処理部50は、3Dマスク部70が出力した変化領域データに基づき、変化領域の「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。   The recognition processing unit 50 extracts feature quantities such as “area”, “horizontal and vertical dimensions”, and “speed” of the change area based on the change area data output by the 3D mask unit 70, and the extracted feature quantities are predetermined. Based on whether the above conditions are satisfied, recognition processing of whether or not the change area is a notification target is performed. The recognition processing unit 50 outputs notification instruction information to the notification processing unit 60 when it recognizes that the change area is a notification target.

報知処理部60は、認識処理部50から出力された報知指示情報に基づいて報知処理を行う。報知処理としては、上位にあるPC300などの装置に特定の信号を送信する処理、あるいは装置にブザーを鳴らさせるなどの処理などが挙げられる。   The notification processing unit 60 performs notification processing based on the notification instruction information output from the recognition processing unit 50. Examples of the notification process include a process of transmitting a specific signal to a device such as the higher-order PC 300 or a process of causing the device to sound a buzzer.

なお、この実施の形態1では、図1に示すように、3次元レーザスキャナ10は監視装置100に備えられるものとしたが、これに限らず、3次元レーザスキャナ10は監視装置100の外部に備えられ、監視装置100は、ネットワーク等を介して、3次元レーザスキャナ10から点群データ17を取得するようにしてもよい。   In the first embodiment, as shown in FIG. 1, the three-dimensional laser scanner 10 is provided in the monitoring apparatus 100. However, the present invention is not limited to this. The three-dimensional laser scanner 10 is outside the monitoring apparatus 100. The monitoring device 100 may acquire the point cloud data 17 from the three-dimensional laser scanner 10 via a network or the like.

次に、実施の形態1に係る監視装置100の動作について説明する。
図4は、実施の形態1に係る監視装置100の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が8×4画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST401)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST402)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である8×4に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは8×4画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
Next, the operation of the monitoring apparatus 100 according to the first embodiment will be described.
FIG. 4 is a flowchart showing the operation of the monitoring apparatus 100 according to the first embodiment.
Here, in order to simplify the description, the case where the resolution of the three-dimensional laser scanner 10 is 8 × 4 pixels will be described as an example.
First, the three-dimensional laser scanner 10 scans the background 200, that is, the range of the monitoring area (step ST401), and acquires point cloud data 17, that is, distance data and intensity data (step ST402). Specifically, the range of the background 200 is divided into 8 × 4 resolutions of the three-dimensional laser scanner 10 and scanned. The distance data is generally digital data, and here, 8-bit multi-value data per pixel of 8 × 4 pixels.
The three-dimensional laser scanner 10 outputs the acquired point group data to the current data calculation unit 20 and the comparison data calculation unit 30.

現データ演算部20は、ステップST402で取得された8×4画素の点群データ17中の距離データを現データとして現データ蓄積部21に蓄積させる(ステップST403)。
比較データ演算部30は、過去にステップST402で取得されて不図示のデータ蓄積部に蓄積された8×4画素の点群データ17中の距離データを比較データに変換し、比較データ蓄積部31に蓄積させる(ステップST404)。
The current data computing unit 20 stores the distance data in the point cloud data 17 of 8 × 4 pixels acquired in step ST402 as current data in the current data storage unit 21 (step ST403).
The comparison data calculation unit 30 converts the distance data in the point cloud data 17 of 8 × 4 pixels acquired in step ST 402 in the past and stored in the data storage unit (not shown) into comparison data, and the comparison data storage unit 31. (Step ST404).

変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出する(ステップST405)。   The change area extraction unit 40 obtains the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31, and compares the current data with the comparison data in pixel units to obtain a difference value. Is calculated (step ST405).

ステップST405で得られた差分値は、距離データと同じく1画素あたり8ビットの多値データであり、変化領域抽出部40は、得られた差分値が予め設定した閾値以上であるか否か判定を行う(ステップST406)。差分値が閾値以上である場合(ステップST406の“YES”の場合)、変化領域抽出部40は、当該画素領域を変化領域候補として抽出する(ステップST407)。
一方、差分値が閾値未満である場合(ステップST406の“NO”の場合)、当該画素領域は変化領域でないと判断し、ステップST408の処理に進む。
The difference value obtained in step ST405 is multi-value data of 8 bits per pixel like the distance data, and the change area extraction unit 40 determines whether the obtained difference value is equal to or more than a preset threshold value. (Step ST406). If the difference value is equal to or larger than the threshold (in the case of “YES” in step ST406), the change area extraction unit 40 extracts the pixel area as a change area candidate (step ST407).
On the other hand, when the difference value is less than the threshold (in the case of “NO” in step ST406), it is determined that the pixel area is not a change area, and the process proceeds to step ST408.

その後、変化領域抽出部40は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST408)。
ステップST408において、8×4画素全てについて処理を行っていない場合(ステップST408の“NO”の場合)、ステップST405の処理に戻り、上述した処理を繰り返す。
ステップST408において、8×4画素全てについて処理を行った場合(ステップST408の“YES”の場合)、変化領域抽出部40は、抽出した変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。
Thereafter, the change area extraction unit 40 determines whether or not the process has been performed for all 8 × 4 pixels (step ST408).
In step ST408, when processing has not been performed for all 8 × 4 pixels (in the case of “NO” in step ST408), the process returns to step ST405, and the above-described process is repeated.
In step ST408, when processing is performed on all 8 × 4 pixels (in the case of “YES” in step ST408), the change area extraction unit 40 uses the information of the extracted change area candidate as change area candidate data as a 3D mask unit. Output to 70.

3Dマスク部70のマスク識別部701は、現データが示す各空間位置について、3Dマスクの設定された空間位置(マスク位置)と一致するか否かを識別する(ステップST409)。   The mask identifying unit 701 of the 3D mask unit 70 identifies whether or not each spatial position indicated by the current data matches the set spatial position (mask position) of the 3D mask (step ST409).

ステップST409において、現データが示す空間位置がマスク位置と一致すると識別した場合(ステップST409の“YES”の場合)、3Dマスク部70の書換部702は、変化領域候補の画素のうち、マスク位置と一致した空間位置を示す現データの画素に対応する画素について、当該画素に付与されている差分値を「0」に書き換える(ステップST410)。   In step ST409, when it is identified that the space position indicated by the current data matches the mask position (in the case of “YES” in step ST409), the rewrite unit 702 of the 3D mask unit 70 selects the mask position among the pixels of the change area candidate. For the pixel corresponding to the pixel of the current data indicating the spatial position that coincides with, the difference value given to the pixel is rewritten to “0” (step ST 410).

ステップST409において、現データが示す空間位置がマスク位置に一致しないと識別した場合(ステップST409の“NO”の場合)、3Dマスク部70の書換部702は、変化領域候補の画素のうち、マスク位置と一致しない空間位置を示す現データの画素に対応する画素について、当該画素に付与されている差分値をそのままの値とする(ステップST411)。   If it is determined in step ST409 that the space position indicated by the current data does not match the mask position (in the case of “NO” in step ST409), the rewrite unit 702 of the 3D mask unit 70 selects the mask of the pixels of the change area candidate. For a pixel corresponding to a pixel of current data indicating a spatial position not coincident with the position, the difference value given to the pixel is used as it is (step ST411).

その後、マスク識別部701は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST412)。
ステップST412において、8×4画素全てについて処理を行っていない場合(ステップST412の“NO”の場合)、ステップST409の処理に戻り、上述した処理を繰り返す。
ステップST412において、8×4画素全てについて処理を行った場合(ステップST412の“YES”の場合)、書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
Thereafter, the mask identifying unit 701 determines whether or not the process has been performed for all 8 × 4 pixels (step ST412).
In step ST412, when processing has not been performed on all 8 × 4 pixels (in the case of “NO” in step ST412), the process returns to step ST409, and the above-described process is repeated.
In step ST412, when processing has been performed for all 8 × 4 pixels (in the case of “YES” in step ST412), rewriting section 702 uses the change area candidate data after rewriting the difference value as the change area data. , To the recognition processing unit 50.

ここで、3Dマスク部70がステップST409〜ステップST412において差分値を書き換える処理(以下「3Dマスク処理」という。)の効果について、図を用いて説明する。
まず、図5は、一般的なカメラで撮影した画像において、2Dマスクを用いて誤報を避ける方法について説明するための図である。図5Aは、例えば、背景200として床501と木502、移動する対象物201として歩行者503が撮影される場合の、一般的なカメラの視野をイメージした図を示している。当該例において、木502は風に揺れ、まれに移動する対象物として誤認され、誤報を生じさせるものと仮定する。図5Bは、図5Aに示すような視野を撮影した画像において、木502による誤報を避けるための2Dマスク504を設定した場合の画像の一例を示した図である。
2Dマスクとは、カメラ視野上において視界を遮るマスクであり、当該2Dマスクに隠された箇所は、電気的に遮蔽され見えなくなる。
図5Bでは、2Dマスク504が、誤報の原因となる木502を隠すように設定されている。これにより、画像上で木502は見えなくなり、誤報の原因となることがなくなる。
Here, the effect of the process in which the 3D mask unit 70 rewrites the difference value in steps ST409 to ST412 (hereinafter, referred to as “3D mask process”) will be described with reference to the drawings.
First, FIG. 5 is a diagram for describing a method of avoiding false alarm using a 2D mask in an image captured by a general camera. FIG. 5A shows, for example, an image of the field of view of a general camera when a floor 501 and a tree 502 are taken as the background 200, and a pedestrian 503 is taken as the moving object 201. In the example, it is assumed that the tree 502 is swaying in the wind and is misidentified as a rare moving object, causing a false alarm. FIG. 5B is a diagram showing an example of an image in the case where a 2D mask 504 is set in order to avoid a false notification due to the tree 502 in the image obtained by capturing the visual field as shown in FIG. 5A.
The 2D mask is a mask that blocks the field of view on the camera view, and the portion hidden by the 2D mask is electrically shielded and can not be seen.
In FIG. 5B, a 2D mask 504 is set to hide the tree 502 that is the cause of the false alarm. As a result, the tree 502 can not be seen on the image and will not cause false alarms.

しかしながら、2Dマスク504は、図5Bに示すように、木502と同時に歩行者503も一部遮蔽してしまう。したがって、歩行者503が、画像上の2Dマスク504の位置を移動する際には、当該歩行者503の発見が困難となり、発報対象の見落とし(以下「失報」という。)が生じ得る。   However, as shown in FIG. 5B, the 2D mask 504 partially shields the pedestrian 503 simultaneously with the tree 502. Therefore, when the pedestrian 503 moves the position of the 2D mask 504 on the image, it is difficult to find the pedestrian 503, and an oversight of a notification target (hereinafter referred to as “missing notification”) may occur.

そこで、実施の形態1に係る監視装置100では、3次元レーザスキャナの視野において、3Dマスク部70が3Dマスク処理を行うことで、木502と対象物201とを区別して遮蔽するようにし、対象物201に対する失報を防止するとともに、木502に対する誤報を防止するようにしている。
以下、3Dマスク処理の詳細について説明する。
Therefore, in the monitoring device 100 according to the first embodiment, the 3D mask unit 70 performs 3D mask processing in the field of view of the 3D laser scanner to distinguish and shield the tree 502 and the object 201 from each other. In addition to preventing a false alarm on the object 201, a false alarm on the tree 502 is prevented.
The details of the 3D mask processing will be described below.

図6は、実施の形態1において、3次元レーザスキャナ10の視野を仮想的に複数のグリッドに分割した立体モデルの一例を示す図である。
図6において、1つのキューブ状のグリッドは、レーザ照射1ポイントの測定点を示すものであり、監視領域である空間は、X方向8グリッド×Y方向4グリッド×Z方向4グリッドの全128個のグリッドに分割されているものとする。
FIG. 6 is a diagram showing an example of a three-dimensional model in which the field of view of the three-dimensional laser scanner 10 is virtually divided into a plurality of grids in the first embodiment.
In FIG. 6, one cube-shaped grid indicates one measurement point of laser irradiation, and a space which is a monitoring area is a total of 128 X grids x Y grids 4 grids x Z grids 4 grids. It is assumed that it is divided into grids.

図7は、実施の形態1において、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。
図7Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図7Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図7Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 7 shows how the floor 501, the tree 502 and the pedestrian 503 in the field of view of the three-dimensional laser scanner 10 look in the 8 × 4 × 4 grid in the first embodiment. It is an example of a model.
FIG. 7A is a model showing the positional relationship of the three-dimensional laser scanner 10, the floor 501, the tree 502 and the pedestrian 503 as viewed from the side. In FIG. 7B, the left side shows a model in which 8 × 4 × 4 grids are in close contact, and the right side shows a model in which 8 × 4 × 4 grids are close to each other. It is a model that is sliced to four horizontally to make the whole grid visible. FIG. 7C is an image model in which the field of view of the three-dimensional laser scanner 10 is assembled into a virtual image.

図7Cに示すように、床501は、3次元レーザスキャナ10の俯角により、奥に行けば行くほど高い位置に見える。また、木502および歩行者503は、同じ大きさであるにもかかわらず、奥にある木502は、小さく測定される。   As shown in FIG. 7C, the floor 501 appears to be at a higher position as it goes further by the depression angle of the three-dimensional laser scanner 10. Also, although the tree 502 and the pedestrian 503 are the same size, the tree 502 in the back is measured small.

図7A〜図7Bにおいて、床501、木502および歩行者503に相当するグリッド以外のグリッドは、3次元レーザスキャナ10において距離が得られなかったグリッドである。この実施の形態1において、3次元レーザスキャナ10において距離が得られなかったグリッドをブランクグリッド505ともいうものとする。   7A to 7B, the grids other than the grids corresponding to the floor 501, the tree 502, and the pedestrian 503 are grids for which the three-dimensional laser scanner 10 can not obtain a distance. In the first embodiment, a grid whose distance can not be obtained in the three-dimensional laser scanner 10 is also referred to as a blank grid 505.

図6,7に示したように、3次元レーザスキャナ10の視野上で、背景200の一部を構成する木502と、対象物201である歩行者503とが重なっているが、移動する物体である歩行者503を発報対象とし、風に揺れる木502は発報対象外とする必要がある。
しかしながら、3次元レーザスキャナ10から得られる情報だけでは、点群データ17の各画素における距離データZが歩行者503に相当するのか、木502に相当するのかの情報は含まれておらず、歩行者503も木502も発報対象とし得る。これに対し、発報不要な木502を遮蔽すべく、図5を用いて説明したような2Dマスク504を設定したとすると、3次元レーザスキャナ10の視野上の各グリッドは、図8に示すようになる。
As shown in FIGS. 6 and 7, in the field of view of the three-dimensional laser scanner 10, a tree 502 constituting a part of the background 200 overlaps a pedestrian 503 which is the object 201, but the moving object It is necessary to set the pedestrian 503 that is the target as a notification target and exclude the tree swaying in the wind from the target.
However, the information obtained from the three-dimensional laser scanner 10 alone does not include information as to whether the distance data Z at each pixel of the point cloud data 17 corresponds to the pedestrian 503 or the tree 502, and thus the walking Both the person 503 and the tree 502 can be notified. On the other hand, assuming that the 2D mask 504 as described with reference to FIG. 5 is set in order to shield the tree 502 that does not need to be notified, each grid on the field of view of the three-dimensional laser scanner 10 is shown in FIG. It will be.

図8は、例えば、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、2Dマスク504を設定した場合のイメージの一例である。
図8Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図8Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 8 shows, for example, a 2D model showing how a floor 501, trees 502 and pedestrians 503 in the field of view of the three-dimensional laser scanner 10 look like in an 8 × 4 × 4 grid. It is an example of the image at the time of setting the mask 504. FIG.
FIG. 8A is a model showing the positional relationship of the three-dimensional laser scanner 10, the floor 501, the tree 502 and the pedestrian 503 as viewed from the side. In FIG. 8B, the left side shows a model in which 8 × 4 × 4 grids are in close contact, and the right side shows a model in which 8 × 4 × 4 grids are in close contact. It is a model that is sliced to four horizontally to make the whole grid visible. Further, FIG. 8C is an image model in which the field of view of the three-dimensional laser scanner 10 is assembled into a virtual image.

図8Bでは、2Dマスク504を、仮想的に8×4×4個のグリッド内に展開したものとしている。2Dマスク504は、X−Y方向の平面において定義されるものであり、Z方向の情報を有していない。したがって、図8Bに示すように、2Dマスク504は、3次元レーザスキャナ10からみた手前側から奥側まで、2Dマスク504が設定されたX−Y方向の領域におけるZ方向のすべての位置において視界を遮ることになる。
この場合、図8Cに示すように、歩行者503が、2Dマスク504の位置を移動する際には、歩行者503の一部も遮蔽してしまうため、失報が生じ得る。
In FIG. 8B, it is assumed that the 2D mask 504 is virtually expanded in an 8 × 4 × 4 grid. The 2D mask 504 is defined in the plane of the XY direction, and has no information in the Z direction. Therefore, as shown in FIG. 8B, the 2D mask 504 has a field of view at all positions in the Z direction in the region of the XY direction in which the 2D mask 504 is set, from the near side to the far side as viewed from the three-dimensional laser scanner 10. To block
In this case, as shown in FIG. 8C, when the pedestrian 503 moves the position of the 2D mask 504, a part of the pedestrian 503 is also shielded, which may cause a false alarm.

そこで、実施の形態1では、上述のとおり、3Dマスク部70が3Dマスク処理を行うことで、背景200と対象物201とを区別して遮蔽するようにした。   Therefore, in the first embodiment, as described above, the 3D mask unit 70 performs 3D mask processing to distinguish and shield the background 200 and the object 201 from each other.

図9は、実施の形態1において、3次元レーザスキャナ10の視野にある床501、木502および歩行者503が、8×4×4個のグリッドの中でどのように見えているかを示したモデルに、3Dマスク506を設定したイメージの一例である。
図9Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図9Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図9Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 9 shows how the floor 501, the tree 502 and the pedestrian 503 in the field of view of the three-dimensional laser scanner 10 look in the 8 × 4 × 4 grid in the first embodiment. It is an example of the image which set 3D mask 506 to the model.
FIG. 9A is a model showing the positional relationship of the three-dimensional laser scanner 10, the floor 501, the tree 502 and the pedestrian 503 as viewed from the side. Further, FIG. 9B shows a model in which 8 × 4 × 4 grids are in close contact with the left side in the figure, and a model in which 8 × 4 × 4 grids are in close contact with the right side in the figure. It is a model that is sliced to four horizontally to make the whole grid visible. Further, FIG. 9C is an image model in which the field of view of the three-dimensional laser scanner 10 is assembled into a virtual image.

図9Bでは、3Dマスク506が、8×4×4個のグリッド内に設定されたイメージの一例を示している。具体的には、図9Bでは、3Dマスク506が木502を遮蔽するように、12個のグリッドからなる直方体として3次元レーザスキャナ10の視野における木502の位置に予め設定されていたものとする。
3Dマスク506は、監視領域の空間をX方向、Y方向およびZ方向に分割した複数のグリッドのうち、監視装置のユーザが意図するグリッドのみに設定することができるため、2Dマスク504とは異なり、3次元レーザスキャナ10の視野において、ユーザが意図する一部のZ方向位置での視界のみを遮ることができる。
FIG. 9B shows an example of an image in which the 3D mask 506 is set in an 8 × 4 × 4 grid. Specifically, in FIG. 9B, it is assumed that the 3D mask 506 is previously set at a position of the tree 502 in the field of view of the three-dimensional laser scanner 10 as a rectangular solid consisting of 12 grids so as to shield the tree 502. .
Unlike the 2D mask 504, the 3D mask 506 can be set to only the grid intended by the user of the monitoring apparatus among a plurality of grids obtained by dividing the space of the monitoring area in the X, Y, and Z directions. In the field of view of the three-dimensional laser scanner 10, it is possible to block only the field of view at a part of the Z direction position intended by the user.

図9Bでは、3次元レーザスキャナ10の視野のZ方向において、木502が存在する位置にのみ3Dマスク処理が実施される。したがって、木502は遮蔽されるが、3Dマスクの設定された空間位置よりもZ方向の手前側に存在する歩行者503は遮蔽されない(図9Cも参照)。   In FIG. 9B, 3D mask processing is performed only at the position where the tree 502 exists in the Z direction of the field of view of the three-dimensional laser scanner 10. Therefore, although the tree 502 is shielded, the pedestrian 503 present on the near side in the Z direction with respect to the set spatial position of the 3D mask is not shielded (see also FIG. 9C).

以上のように、実施の形態1では、3Dマスク部70が3Dマスク処理を行うことで、背景200と対象物201とを区別して3Dマスク506で遮蔽することができる。すなわち、例えば、発報対象とすべき対象物201である歩行者503と、発報対象外とすべき木502とが、3次元レーザスキャナ10の視野上で重なっていても、互いの距離の乖離を利用し、誤報の原因となる木502のみを3Dマスク506で遮蔽することができる。これにより、発報対象とすべき歩行者503を正確に識別して失報を防止するとともに、発報対象外とすべき木502を、発報対象として誤認識してしまうことによる誤報を防止することができる。   As described above, in the first embodiment, the background 200 and the target object 201 can be distinguished and shielded by the 3D mask 506 by the 3D mask unit 70 performing the 3D mask processing. That is, for example, even if the pedestrian 503 which is the target object 201 to be notified and the tree 502 to be out of the target object are overlapped in the field of view of the three-dimensional laser scanner 10 Deviation can be used to shield only the tree 502 that causes false alarms with the 3D mask 506. This makes it possible to accurately identify the pedestrian 503 to be notified and prevent a false alarm, and to prevent false notification due to the tree 502 to be excluded from being a false alarm, as a false alarm. can do.

図4のフローチャートに戻る。
ステップST412において8×4個の画素全てについて処理を行った場合(ステップST412の“YES”の場合)、認識処理部50は、ステップST412で3Dマスク部70が出力した変化領域データに基づき、変化領域が照合条件を満たすか否か判定を行う(ステップST413)。
照合条件を満たす場合(ステップST413の“YES”の場合)、認識処理部50は、変化領域が報知対象であると認識する(ステップST414)。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
一方、照合条件を満たさない場合(ステップST413の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST415)、ステップST401の処理に戻る。
It returns to the flowchart of FIG.
When processing is performed on all 8 × 4 pixels in step ST412 (in the case of “YES” in step ST412), the recognition processing unit 50 changes based on the change area data output by the 3D mask unit 70 in step ST412. It is determined whether the area satisfies the matching condition (step ST413).
If the matching condition is satisfied (in the case of “YES” in step ST413), the recognition processing unit 50 recognizes that the change area is a notification target (step ST414). The recognition processing unit 50 outputs notification instruction information to the notification processing unit 60 when it recognizes that the change area is a notification target.
On the other hand, when the matching condition is not satisfied (in the case of “NO” in step ST413), it is determined that the change area is not a notification target (step ST415), and the process returns to step ST401.

ここで、ステップST413における認識処理部50による判定処理を詳細に説明する。
図10は、実施の形態1に係る監視装置100の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、変化領域が監視範囲内に存在するか否か判定を行う(ステップST1001)。なお、ここで、監視範囲とは、監視領域内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
変化領域が監視範囲内に存在する場合(ステップST1001の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の面積を有しているか否か判定を行う(ステップST1002)。ここでいう変化領域とは、図4のステップST411で変化領域と決定された画素のうち、互いに隣接あるいは近接する複数の画素の集合からなる領域のことをいう。
Here, the determination processing by the recognition processing unit 50 in step ST413 will be described in detail.
FIG. 10 is a flowchart showing determination processing by the recognition processing unit 50 of the monitoring apparatus 100 according to the first embodiment.
The recognition processing unit 50 determines whether or not the change area exists in the monitoring range (step ST1001). Here, the monitoring range refers to a range within the monitoring area, for example, a range in which notification is required when the object 201 is detected for monitoring, and the monitoring range is set in advance. It shall be done.
When the change area exists in the monitoring range (in the case of “YES” in step ST1001), the recognition processing unit 50 further determines whether the change area has a predetermined area (step ST1002). The term "change region" as used herein refers to a region consisting of a set of a plurality of pixels adjacent to or adjacent to each other among the pixels determined as the change region in step ST411 in FIG.

変化領域が所定の面積を有している場合(ステップST1002の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST1003)。所定の縦横寸法を有している場合(ステップST1003の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の移動速度を有しているか否か判定を行う(ステップST1004)。所定の移動速度を有している場合(ステップST1004の“YES”の場合)、図4のステップST414に進み、変化領域が報知対象であると認識される。   When the change area has a predetermined area (in the case of “YES” in step ST 1002), the recognition processing unit 50 further determines whether the change area has a predetermined vertical and horizontal dimension (step ST 1003). If it has predetermined vertical and horizontal dimensions (in the case of "YES" in step ST1003), the recognition processing unit 50 further determines whether or not the change area has a predetermined moving speed (step ST1004). . If it has a predetermined moving speed (in the case of “YES” in step ST1004), the process proceeds to step ST414 in FIG. 4 and it is recognized that the change area is a notification target.

一方、変化領域が監視範囲内に存在しない場合(ステップST1001の“NO”の場合)、あるいは、変化領域が所定の面積を有していない場合(ステップST1002の“NO”の場合)、あるいは、変化領域が所定の縦横寸法を有していない場合(ステップST1003の“NO”の場合)、あるいは、変化領域が所定の移動速度を有してない場合(ステップST1004の“NO”の場合)は、図4のステップST415に進み、報知対象でないと判断される。   On the other hand, if the change area does not exist in the monitoring range ("NO" in step ST1001), or if the change area does not have a predetermined area ("NO" in step ST1002), or When the change area does not have predetermined vertical and horizontal dimensions (in the case of "NO" in step ST1003) or in the case where the change area does not have a predetermined moving speed (in the case of "NO" in step ST1004) The process proceeds to step ST415 in FIG. 4 and is determined not to be a notification target.

図4のフローチャートに戻る。
報知処理部60は、ステップST414において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST416)、ステップST401の処理に戻る。
It returns to the flowchart of FIG.
The notification processing unit 60 performs notification processing for the recognized notification target based on the notification instruction information output from the recognition processing unit 50 in step ST414 (step ST416), and returns to the process of step ST401.

図11A,図11Bは、実施の形態1に係る監視装置100のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、処理回路1101により実現される。すなわち、監視装置100は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路1101を備える。
処理回路1101は、図11Aに示すように専用のハードウェアであっても、図11Bに示すようにメモリ1105に格納されるプログラムを実行するCPU(Central Processing Unit)1106であってもよい。
11A and 11B are diagrams showing an example of the hardware configuration of the monitoring apparatus 100 according to the first embodiment.
In the first embodiment of the present invention, the functions of the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the 3D mask unit 70 , And implemented by the processing circuit 1101. That is, the monitoring apparatus 100 includes a processing circuit 1101 for performing notification processing when a change to be notified is detected based on point cloud data acquired from the three-dimensional laser scanner 10.
The processing circuit 1101 may be dedicated hardware as shown in FIG. 11A or a CPU (Central Processing Unit) 1106 that executes a program stored in the memory 1105 as shown in FIG. 11B.

処理回路1101が専用のハードウェアである場合、処理回路1101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。   When the processing circuit 1101 is dedicated hardware, the processing circuit 1101 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), an FPGA (field-programmable) Gate Array) or a combination thereof is applicable.

処理回路1101がCPU1106の場合、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70は、HDD(Hard Disk Drive)1102、メモリ1105等に記憶されたプログラムを実行するCPU1106、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD1102、メモリ1105等に記憶されたプログラムは、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1105とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。   When the processing circuit 1101 is the CPU 1106, each function of the current data operation unit 20, the comparison data operation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the 3D mask unit 70 is It is realized by software, firmware, or a combination of software and firmware. That is, the current data operation unit 20, the comparison data operation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the 3D mask unit 70 are HDD (Hard Disk Drive) 1102, memory This is realized by a CPU 1106 that executes a program stored in 1105 or the like, and a processing circuit such as a system LSI (Large-Scale Integration). The programs stored in the HDD 1102, the memory 1105, etc. are the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the 3D mask unit. It can also be said that the computer executes the 70 procedures and methods. Here, the memory 1105 is, for example, a nonvolatile memory such as a random access memory (RAM), a read only memory (ROM), a flash memory, an erasable programmable read only memory (EPROM), and an electrically erasable programmable read only memory (EEPROM). Semiconductor memory, magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), and the like.

なお、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、現データ演算部20と、比較データ演算部30については専用のハードウェアとしての処理回路1101でその機能を実現し、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70については処理回路がメモリ1105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
現データ蓄積部21と比較データ蓄積部31は、例えば、HDD1102を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31は、DVD、メモリ1105等によって構成されるものであってもよい。
また、監視装置100は、3次元レーザスキャナ10、あるいは、上位にあるPC300等の装置との通信を行う入力インタフェース装置1103、出力インタフェース装置1104を有する。
In addition, the hardware dedicated to a part of each function of the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the 3D mask unit 70. It may be realized by hardware, and a part may be realized by software or firmware. For example, the functions of the current data calculation unit 20 and the comparison data calculation unit 30 are realized by the processing circuit 1101 as dedicated hardware, and the change area extraction unit 40, the recognition processing unit 50, and the notification processing unit 60. The function of the 3D mask unit 70 can be realized by the processing circuit reading and executing a program stored in the memory 1105.
The current data storage unit 21 and the comparison data storage unit 31 use, for example, the HDD 1102. This is merely an example, and the current data storage unit 21 and the comparison data storage unit 31 may be configured by a DVD, a memory 1105, and the like.
The monitoring device 100 further includes an input interface device 1103 and an output interface device 1104 that communicate with the three-dimensional laser scanner 10 or a device such as the PC 300 located above.

以上のように、この実施の形態1によれば、監視装置100は、監視領域を測定した3次元レーザスキャナ10の測定結果から、監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部20と、測定結果から過去の距離データを取得し、比較データに変換する比較データ演算部30と、現データと比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部40と、現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、変化領域抽出部40が抽出した変化領域候補から、マスク位置に一致する空間位置を示すと判定された現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部70を備えるように構成したため、発報対象と不要な検知要素との遠近の差によって生じる発報対象の見落とし、および、誤報を防止することができる。   As described above, according to the first embodiment, the monitoring apparatus 100 acquires the distance data to the object present in the monitoring area from the measurement result of the three-dimensional laser scanner 10 for which the monitoring area has been measured. The difference data between the current data and the comparison data, and calculating the difference value between the current data and the comparison data, and the difference value is the threshold value. A change area extraction unit 40 that extracts the above area as a change area candidate, and whether or not the spatial position indicated by the current data matches the mask position that is the set spatial position of the 3D mask is identified. 3D mask which excludes the change area candidate corresponding to the area of the present data determined to indicate the spatial position coincident with the mask position from the change area candidates extracted by the extraction unit 40, and determines the change area Because you configured with 70, oversight of the origination report object caused by the difference in perspective between the unwanted sensing elements and alarm object, and can prevent false alarms.

なお、以上の実施の形態1では、監視装置100は3次元レーザスキャナ10を備えるものとしたが、3次元レーザスキャナ10に限らず、距離を測定するセンサ一般に応用可能である。
また、以上の実施の形態1では、変化領域抽出部40が2値化処理を行い、差分値を2値化データとして取り扱うようにしたが、差分値の2値化処理は、変化領域抽出部40が行うのではなく、代わりに、認識処理部50が行うようにしてもよいし、3Dマスク部70が行うようにしてもよい。演算量が負荷として問題にならない場合は、監視装置100において、2値化処理は行わず、差分値をそのまま用いて各部における処理を行うようにしてもよい。
In the first embodiment described above, the monitoring apparatus 100 includes the three-dimensional laser scanner 10. However, the monitoring apparatus 100 is not limited to the three-dimensional laser scanner 10, and can be applied to general sensors that measure distance.
In the first embodiment described above, the change area extraction unit 40 performs the binarization process and handles the difference value as binarized data. However, the binarization process of the difference value is performed by the change area extraction unit. Instead of being performed by 40, instead, the recognition processing unit 50 may be performed, or the 3D mask unit 70 may be performed. When the calculation amount does not cause a problem as a load, the monitoring apparatus 100 may not perform the binarization process, and may perform the process in each part using the difference value as it is.

また、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   Further, within the scope of the invention of the present application, it is possible to deform any component of the embodiment or omit any component of the embodiment.

10 3次元レーザスキャナ、11 レーザ発光ユニット、12 レーザ光パルス、13 分散機構、14 分散レーザ光パルス、15 レーザ反射光、16 レーザ受光ユニット、17 点群データ、20 現データ演算部、21 現データ蓄積部、30 比較データ演算部、31 比較データ蓄積部、40 変化領域抽出部、50 認識処理部、60 報知処理部、70 3Dマスク部、100 監視装置、200 背景、201 対象物、300 PC、501 床、502 木、503 歩行者、504 2Dマスク、505 ブランクグリッド、506 3Dマスク、701 マスク識別部、702 書換部、1101 処理回路、1102 HDD、1103 入力インタフェース装置、1104 出力インタフェース装置、1105 メモリ、1106 CPU。   10 three-dimensional laser scanner 11 laser light emitting unit 12 laser light pulse 13 dispersion mechanism 14 dispersion laser light pulse 15 laser reflected light 16 laser light receiving unit 17 point group data 20 actual data operation unit 21 actual data Storage unit, 30 comparison data calculation unit, 31 comparison data storage unit, 40 change area extraction unit, 50 recognition processing unit, 60 notification processing unit, 70 3D mask unit, 100 monitoring device, 200 background, 201 object, 300 PC, 501 floor 502 tree 503 pedestrian 504 2D mask 505 blank grid 506 3D mask 701 mask identification unit 702 rewriting unit 1101 processing circuit 1102 HDD 1103 input interface device 1104 output interface device 1105 memory , 110 CPU.

Claims (3)

監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部と、
前記測定結果から過去の前記距離データを取得し、比較データに変換する比較データ演算部と、
前記現データと前記比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、
前記現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、前記変化領域抽出部が抽出した変化領域候補から、前記マスク位置に一致する空間位置を示すと判定された前記現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部
とを備えた監視装置。
A current data calculation unit which acquires distance data to an object present in the monitoring area from the measurement results of the three-dimensional laser scanner which measured the monitoring area, and uses it as current data;
A comparison data operation unit that acquires the past distance data from the measurement result and converts it into comparison data;
A change area extraction unit which calculates a difference value between the current data and the comparison data and extracts an area having the difference value equal to or more than a threshold as a change area candidate;
It identifies whether or not the spatial position indicated by the current data matches the mask position which is the set spatial position of the 3D mask, and matches the mask position from the change area candidate extracted by the change area extraction unit A monitoring apparatus comprising: a 3D mask unit which excludes a change area candidate corresponding to the area of the current data determined to indicate a spatial position and determines a change area.
前記3Dマスク部は、
前記現データの示す各空間位置が前記マスク位置に一致するか否かを識別するマスク識別部と、
前記マスク識別部によって前記マスク位置に一致する空間位置を示すと識別された前記現データの領域に対応する変化領域候補の前記差分値を0に書き換える書換部とを有する
ことを特徴とする請求項1記載の監視装置。
The 3D mask unit is
A mask identification unit that identifies whether or not each spatial position indicated by the current data matches the mask position;
A rewriting unit that rewrites the difference value of the change area candidate corresponding to the area of the current data identified as indicating a space position coincident with the mask position by the mask identification unit to 0; The monitoring device according to 1.
前記3Dマスク部が決定した変化領域の特徴量に基づき、当該変化領域が報知対象であるか否かの認識処理を行う認識処理部を備えた
ことを特徴とする請求項1または請求項2記載の監視装置。
The recognition process part which performs recognition processing of whether the said change area is alerting | reporting object based on the feature-value of the change area which the said 3D mask part determined was provided. It was characterized by the above-mentioned. Monitoring equipment.
JP2017170322A 2017-09-05 2017-09-05 monitoring device Active JP7128568B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170322A JP7128568B2 (en) 2017-09-05 2017-09-05 monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170322A JP7128568B2 (en) 2017-09-05 2017-09-05 monitoring device

Publications (2)

Publication Number Publication Date
JP2019046295A true JP2019046295A (en) 2019-03-22
JP7128568B2 JP7128568B2 (en) 2022-08-31

Family

ID=65814313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170322A Active JP7128568B2 (en) 2017-09-05 2017-09-05 monitoring device

Country Status (1)

Country Link
JP (1) JP7128568B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020193814A (en) * 2019-05-24 2020-12-03 三菱電機株式会社 Monitoring device and three-dimensional laser scanner
CN115183763A (en) * 2022-09-13 2022-10-14 南京北新智能科技有限公司 Personnel map positioning method based on face recognition and grid method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138596A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JP2007249722A (en) * 2006-03-17 2007-09-27 Hitachi Ltd Object detector
JP2009124618A (en) * 2007-11-19 2009-06-04 Hitachi Ltd Camera apparatus, and image processing device
WO2016002776A1 (en) * 2014-07-03 2016-01-07 三菱電機株式会社 Monitoring apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138596A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JP2007249722A (en) * 2006-03-17 2007-09-27 Hitachi Ltd Object detector
JP2009124618A (en) * 2007-11-19 2009-06-04 Hitachi Ltd Camera apparatus, and image processing device
WO2016002776A1 (en) * 2014-07-03 2016-01-07 三菱電機株式会社 Monitoring apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"水域・水際向け監視センサiLScanner", IHI技報 第52巻 第2号, JPN6021018865, 1 June 2012 (2012-06-01), ISSN: 0004675706 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020193814A (en) * 2019-05-24 2020-12-03 三菱電機株式会社 Monitoring device and three-dimensional laser scanner
JP7361496B2 (en) 2019-05-24 2023-10-16 三菱電機株式会社 monitoring device
CN115183763A (en) * 2022-09-13 2022-10-14 南京北新智能科技有限公司 Personnel map positioning method based on face recognition and grid method

Also Published As

Publication number Publication date
JP7128568B2 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
Guan et al. Automated pixel-level pavement distress detection based on stereo vision and deep learning
US10132611B2 (en) Laser scanner
TWI566204B (en) Three dimensional object recognition
US9117281B2 (en) Surface segmentation from RGB and depth images
JP5822255B2 (en) Object identification device and program
JP6667065B2 (en) Position estimation device and position estimation method
EP2881702A1 (en) Image processing system, and image processing method
WO2012034236A1 (en) System and method for detailed automated feature extraction from data having spatial coordinates
Guldur Laser-based structural sensing and surface damage detection
Tang et al. A comparative analysis of depth-discontinuity and mixed-pixel detection algorithms
JP6781432B2 (en) Radio wave propagation simulation model creation method, creation system, creation device and creation program
Weinmann et al. Preliminaries of 3D point cloud processing
Cabo et al. Mobile Laser Scanner data for automatic surface detection based on line arrangement
US20160259034A1 (en) Position estimation device and position estimation method
Benveniste et al. A color invariant for line stripe-based range scanners
JP2019046295A (en) Monitoring device
Razali et al. A hybrid point cloud reality capture from terrestrial laser scanning and UAV-photogrammetry
CN117095038A (en) Point cloud filtering method and system for laser scanner
CN110291557B (en) Monitoring device
Madhavan et al. A computer vision based approach for 3D building modelling of airborne laser scanner DSM data
WO2022241574A1 (en) Texture mapping to polygonal models for industrial inspections
JP7054989B2 (en) Monitoring device
EP4131155A1 (en) Point cloud data processing device, point cloud data processing method, and program
US20210389460A1 (en) Image processing device, control program, and image processing method
JP6530685B2 (en) Object detection apparatus, object detection system, object detection method and object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220816

R150 Certificate of patent or registration of utility model

Ref document number: 7128568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150