JP3941790B2 - Moving object detection apparatus and method - Google Patents

Moving object detection apparatus and method Download PDF

Info

Publication number
JP3941790B2
JP3941790B2 JP2004114163A JP2004114163A JP3941790B2 JP 3941790 B2 JP3941790 B2 JP 3941790B2 JP 2004114163 A JP2004114163 A JP 2004114163A JP 2004114163 A JP2004114163 A JP 2004114163A JP 3941790 B2 JP3941790 B2 JP 3941790B2
Authority
JP
Japan
Prior art keywords
background
distance
detection
moving object
background distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004114163A
Other languages
Japanese (ja)
Other versions
JP2005300259A (en
Inventor
宏一郎 永田
健 小林
清英 関本
寿夫 中村
豊 久光
勇樹 平岩
Original Assignee
石川島播磨重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 石川島播磨重工業株式会社 filed Critical 石川島播磨重工業株式会社
Priority to JP2004114163A priority Critical patent/JP3941790B2/en
Publication of JP2005300259A publication Critical patent/JP2005300259A/en
Application granted granted Critical
Publication of JP3941790B2 publication Critical patent/JP3941790B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、レーザレーダの計測結果から移動物体を検出する移動物体検出装置及び方法に関する。   The present invention relates to a moving object detection apparatus and method for detecting a moving object from a measurement result of a laser radar.

従来、所定の監視領域における移動物体の検出は、一般的には監視カメラで監視領域を撮影した画像に対して所定の画像処理を施すことにより行われている。この検出方法を具体的に説明すると、予め監視カメラを用いて長時間に亘って移動のない背景画像を撮影しておき、この背景画像と新たに監視カメラで撮影した画像との差分をとり、差が生じた画素で撮影された物体を移動物体として検出している。   Conventionally, detection of a moving object in a predetermined monitoring area is generally performed by performing predetermined image processing on an image obtained by photographing the monitoring area with a monitoring camera. Specifically explaining this detection method, a background image that does not move for a long time is previously captured using a monitoring camera, and a difference between this background image and a new image captured by the monitoring camera is taken, An object photographed with a pixel having a difference is detected as a moving object.

また、近年においては上記の監視カメラを用いた検出方法以外にレーザレーダを用いた移動物体の検出方法も案出されている。この検出方法は、監視対象の監視領域内においてレーザビームを走査(スキャン)し、監視領域内にある物体で反射される反射光、回折光、又は散乱光を受光して、その時間的変化から移動物体を検出するものである。例えば、以下の特許文献1においては、監視領域を横断歩道に設定して横断歩道を渡る歩行者を検出する方法が案出されている。
特開2002−140790号公報
In recent years, in addition to the detection method using the monitoring camera, a moving object detection method using a laser radar has been devised. In this detection method, a laser beam is scanned in a monitoring area to be monitored, reflected light, diffracted light, or scattered light reflected by an object in the monitoring area is received and the temporal change is detected. It detects moving objects. For example, in Patent Document 1 below, a method has been devised in which a monitoring area is set as a pedestrian crossing and a pedestrian crossing the pedestrian crossing is detected.
JP 2002-140790 A

ところで、上記の監視カメラを用いた検出方法においては、屋外等の環境の変化が大きな所では著しく検出性能が低下し、移動物体の検出を安定して行うことができないという問題があった。例えば、雲が空に点在する状況(雲が空に全く無い状況及び雲が空全体を覆っている状況以外の状況)においては、雲が太陽からの光を遮っている間は建物の影は現れないが、太陽が雲から出てくると建物の影が現れるため、新たに現れた影を移動物体であると誤検出してしまう。更に、夜間においてはライトが点灯状態にある車両等は検出することができるものの、正確な移動物体の検出はできない。   By the way, the detection method using the monitoring camera has a problem that the detection performance is remarkably deteriorated in a place where the environment changes greatly, such as outdoors, and the moving object cannot be detected stably. For example, in a situation where clouds are scattered in the sky (a situation other than a situation where no clouds are present in the sky or a situation where the clouds cover the entire sky), the shadow of the building will remain as long as the clouds block the light from the sun. Will not appear, but if the sun comes out of the clouds, the shadow of the building will appear, so the newly appearing shadow will be falsely detected as a moving object. Furthermore, although it is possible to detect a vehicle or the like whose lights are on at night, it cannot accurately detect a moving object.

また、上記の特許文献1に開示されたレーザレーダを用いた検出方法においては、時間的に変動しない地面の高さ位置を基準面(高さ0)に設定するとともに、基準面に対して所定の高さ閾値を設定しておき、この高さ閾値を超えたものを監視領域内の物体(移動物体)として検出している。このため、地面に凹凸があると移動物体の誤検出が生ずる。例えば、移動物体の底部が基準面に配置されているときに最上部位置が上記の高さ閾値を超えていても、その移動物体が地面の凹部に配置されて移動物体の最上部位置が上記の高さ閾値よりも低くなると、その移動物体を検出することはできなくなる。   Further, in the detection method using the laser radar disclosed in Patent Document 1, the height position of the ground that does not vary with time is set as a reference plane (height 0) and predetermined with respect to the reference plane. Is set as an object in the monitoring area (moving object). For this reason, if the ground surface is uneven, a moving object is erroneously detected. For example, when the bottom of the moving object is placed on the reference plane, even if the top position exceeds the height threshold, the moving object is placed in the concave portion of the ground and the top position of the moving object is If the height threshold value is lower than that, the moving object cannot be detected.

本発明は上記事情に鑑みてなされたものであり、監視領域の環境が変動する状況下であり、又は移動物体を検出するための基準面を平面に設定することができない状況下であっても、移動物体を安定して検出することができる移動物体検出装置及び方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, even under circumstances where the environment of the monitoring area fluctuates, or even under circumstances where the reference plane for detecting a moving object cannot be set to a plane. An object of the present invention is to provide a moving object detection apparatus and method capable of stably detecting a moving object.

上記課題を解決するために、本発明の移動物体検出装置は、少なくとも所定の領域(SR)を含む検出領域を走査するレーザレーダ(10)と、前記レーザレーダにより計測される距離情報と前記レーザレーダの走査位置を示す情報とから前記検出領域全体の背景距離を示す背景距離マップを生成する手段であって、前記背景距離マップに含まれる特異点の値を、当該特異点周辺における背景距離から当該特異点の値との差が最も小さいものを除いた残りの背景距離の平均値に設定することで、前記特異点を除去する特異点除去手段を備える背景距離マップ生成手段(21)と、前記レーザレーダの走査により計測される距離情報と当該距離情報が得られた検出点及びその周囲における前記背景距離マップの背景距離とを比較して前記所定の領域内の移動物体を検出する検出手段(23)とを備えることを特徴としている。
この発明によると、所定の領域を含む検出領域内に移動物体が無いときに予めレーザレーダの計測結果に基づいて検出領域全体の背景距離を示す背景距離マップであって特異点が除去された背景距離マップが生成され、この背景距離マップとレーザレーダにより計測される距離情報との比較が行われて所定の領域内における移動物体が検出される。
また、本発明の移動物体検出装置は、前記背景距離マップ生成手段が、前記レーザレーダにより計測される距離情報と前記レーザレーダの走査方向の情報とから、前記背景距離マップを定期的に更新することを特徴としている。
この発明によると、背景距離マップ生成手段によって背景距離マップが定期的に更新される
上記課題を解決するために、本発明の移動物体検出方法は、少なくとも所定の領域を含む検出領域を、レーザレーダを走査して計測する計測ステップ(S12)と、前記レーザレーダにより計測される距離情報と前記レーザレーダの走査位置を示す情報とから前記検出領域全体の背景距離を示す背景距離マップを生成する背景距離マップ生成ステップ(S13、S14)と、前記背景距離マップに含まれる特異点周辺の背景距離から当該特異点の値との差が最も小さいものを除いた残りの背景距離の平均値を求め、前記特異点の値を当該平均値に設定することで前記特異点を除去する特異点除去ステップ(S16)と、前記レーザレーダの走査により計測される距離情報と当該距離情報が得られた検出点及びその周囲における前記背景距離マップの背景距離とを比較して前記所定の領域内の移動物体を検出する検出ステップとを含むことを特徴としている。
In order to solve the above problems, a moving object detection device of the present invention includes a laser radar (10) that scans a detection region including at least a predetermined region (SR), distance information measured by the laser radar, and the laser. means for generating a background distance map from the information indicating the scanning position of the radar indicating the background distance of the entire detection area, the value of the singularity contained in the background distance map from the background distance in near the singularity A background distance map generating means (21) provided with a singular point removing means for removing the singular points by setting the average value of the remaining background distances except for those having the smallest difference from the value of the singular points ; by comparing the background distance of the background distance map at the distance information and the distance information detecting point and its surroundings were obtained as measured by the scanning of the laser radar of the predetermined It is characterized by comprising detecting means for detecting a moving object in the region (23).
According to the present invention, when there is no moving object in the detection area including the predetermined area, the background distance map showing the background distance of the entire detection area based on the measurement result of the laser radar in advance, the background from which the singular point is removed A distance map is generated, and the background distance map is compared with distance information measured by the laser radar to detect a moving object in a predetermined area.
Further, in the moving object detection device of the present invention, the background distance map generation means periodically updates the background distance map from distance information measured by the laser radar and information on the scanning direction of the laser radar. It is characterized by that.
According to the present invention, the background distance map is periodically updated by the background distance map generating means .
In order to solve the above-described problems, the moving object detection method of the present invention includes a measurement step (S12) of scanning a laser radar to measure a detection area including at least a predetermined area, and a distance measured by the laser radar. information and the background distance map generating step from the information indicating the scanning position of the laser radar generates a background distance map indicating the background distance of the entire detection area (S13, S14) and, near the singularity contained in the background distance map The average value of the remaining background distances, excluding those with the smallest difference from the value of the singular point from the background distance, and the singular point is removed by setting the value of the singular point to the average value a point removal step (S16), the background distance Ma in the distance information and the detection point and around thereof the distance information is obtained to be measured by scanning of the laser radar By comparing the background distance flop it is characterized by including a detection step of detecting a moving object in the predetermined area.

本発明によれば、移動物体がない場合の距離(背景距離)と背景の前に移動物体があるときの距離との差から移動物体を検出しているため、太陽光照射の有無による照度変化等の環境変化があっても安定して移動物体を検出することができるという効果がある。また、背景距離からの距離の変化に基づいて移動物体を検出しているため、背景と移動物体との位置関係に拘わらず安定して移動物体の検出を行うことができるという効果がある。
また、本発明によれば、背景距離マップは定期的に更新されるため、工事等によって背景が変化した場合に、工事箇所が移動物体であると誤検出されることはないという効果があり、背景が自動更新されることにより、背景が変化した場合に新たな調整が不要という効果もある。
また、本発明によれば、背景距離マップ中の特異点の値はその周囲の背景距離の平均値に設定されるため、背景距離からの距離の変化により移動物体を検出する上で、誤検出を防止することができるという効果がある。
更に、本発明によれば、移動物体を検出する際に、ある検出点において計測された距離情報と、その検出点及びその周囲における背景距離マップの背景距離とを比較しているため、レーザレーダの走査誤差が生じた場合であっても安定した移動物体を検出することができる。
According to the present invention, since the moving object is detected from the difference between the distance when there is no moving object (background distance) and the distance when there is a moving object in front of the background, the illuminance change due to the presence or absence of sunlight irradiation Even if there is an environmental change such as this, there is an effect that a moving object can be detected stably. Further, since the moving object is detected based on the change in distance from the background distance, there is an effect that the moving object can be detected stably regardless of the positional relationship between the background and the moving object.
Further, according to the present invention, since the background distance map is periodically updated, there is an effect that when the background changes due to construction or the like, the construction location is not erroneously detected as a moving object, By automatically updating the background, there is an effect that no new adjustment is required when the background changes.
In addition, according to the present invention, the value of the singular point in the background distance map is set to the average value of the background distance around it, so that it is erroneously detected when a moving object is detected by a change in distance from the background distance. There is an effect that can be prevented.
Further, according to the present invention, when detecting a moving object, the distance information measured at a certain detection point is compared with the background distance of the background distance map at the detection point and its surroundings. Even when the scanning error occurs, a stable moving object can be detected.

以下、図面を参照して本発明の一実施形態による移動物体検出装置及び方法について詳細に説明する。図1は、本発明の一実施形態による移動物体検出装置の構成を示すブロック図である。図1に示す通り、本実施形態の移動物体検出装置は、レーザレーダ10と検出装置本体20とを含んで構成されている。レーザレーダ10は、所定の筐体に一体に収容されてセンサユニットを構成し、建屋の壁面や電柱等の所定高さに設置されており、例えば図2に示す通り移動物体の検出を行う監視領域(所定の領域)全体を俯瞰するように配置されている。   Hereinafter, a moving object detection apparatus and method according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a moving object detection apparatus according to an embodiment of the present invention. As shown in FIG. 1, the moving object detection device of the present embodiment includes a laser radar 10 and a detection device body 20. The laser radar 10 is housed integrally in a predetermined housing to form a sensor unit, and is installed at a predetermined height such as a wall surface of a building or a utility pole. For example, monitoring for detecting a moving object as shown in FIG. It arrange | positions so that the whole area | region (predetermined area | region) may be looked down on.

図2は、レーザレーダ10の取り付け状態の一例を示す図である。図2に示す例において、レーザレーダ10は、ビルBL1とビルBL2との間を通る路面R上を俯瞰するように配置されている。尚、本実施形態においては、ビルBL1とビルBL2との間の路面R上が監視領域SRであるとする。レーザレーダ10は、この監視領域SR及びビルB1,B2の一部を含む領域(検出領域)を走査する。   FIG. 2 is a diagram illustrating an example of a mounting state of the laser radar 10. In the example shown in FIG. 2, the laser radar 10 is arranged so as to look down on the road surface R passing between the building BL1 and the building BL2. In the present embodiment, it is assumed that the monitoring area SR is on the road surface R between the building BL1 and the building BL2. The laser radar 10 scans the monitoring region SR and a region (detection region) including a part of the buildings B1 and B2.

レーザレーダ10は、多面体ミラー11を一定速度で回転駆動する主走査モータ12と、主走査モータ12に対してその回転軸を直交させて設けられて多面体ミラー11の回転軸を所定の角度範囲内で傾動させることで多面体ミラー11の回転面を所定速度で揺動させる副走査モータ13とを備えている。また、レーザレーダ10にはレーザ光源14が設けられており、このレーザ光源14から発せられたパルスレーザ光をハーフミラー15を介して多面体ミラー11に照射することで、パルスレーザ光を多面体ミラー11の回転と傾きとに応じて監視領域SRを含む検出領域に照射する構成である。また、パルスレーザ光の監視領域を含む領域からの反射光を多面体ミラー11から集光レンズ16を介して受光器17により受光する構成である。   The laser radar 10 is provided with a main scanning motor 12 that drives the polyhedral mirror 11 to rotate at a constant speed, and a rotation axis of the polyhedral mirror 11 within a predetermined angular range. And a sub-scanning motor 13 that swings the rotating surface of the polyhedral mirror 11 at a predetermined speed. The laser radar 10 is provided with a laser light source 14, and the polyhedral mirror 11 is irradiated with pulsed laser light emitted from the laser light source 14 via the half mirror 15. The detection region including the monitoring region SR is irradiated according to the rotation and inclination of the lens. In addition, the reflected light from the region including the monitoring region of the pulse laser light is received by the light receiver 17 from the polyhedral mirror 11 via the condenser lens 16.

即ち、レーザレーダ10は、多面体ミラー11の回転とその揺動とによってパルスレーザ光の照射方向を主走査方向(x方向)に高速に偏向走査しながら、その走査面を副走査方向(y方向)に偏向走査し、これによって図2に例示する通り、監視領域SRを含む検出領域全体を走査している。また、検出領域に存在する種々の物体による反射光をパルスレーザ光の照射に同期して受光し、その受光タイミング(パルスレーザ光の照射タイミングからその反射光の受光タイミングまでの経過時間)から物体(反射点)までの距離情報を求めるように構成されている。   That is, the laser radar 10 deflects and scans the irradiation direction of the pulsed laser beam in the main scanning direction (x direction) at high speed by rotating and swinging the polyhedral mirror 11, while scanning the scanning surface in the sub scanning direction (y direction). ), Thereby scanning the entire detection region including the monitoring region SR as illustrated in FIG. In addition, the reflected light from various objects in the detection area is received in synchronization with the irradiation of the pulsed laser light, and the object from the light receiving timing (the elapsed time from the pulsed laser light irradiation timing to the reflected light receiving timing). The distance information to (reflection point) is obtained.

尚、レーザレーダ10による走査範囲は、例えば主走査(水平)方向については60度に設定され、副走査(垂直)方向については30度に設定されている。また、レーザレーダ10は、例えばその走査方向が0.1度変化するたびにパルスレーザ光を照射し、その反射光を受光することで、反射光の情報を順次するように構成される。従って、監視領域SRを含む検出領域内において、x方向については600点の検出点が設けられ、y方向については300点の検出点が設けられる。   The scanning range by the laser radar 10 is set to 60 degrees in the main scanning (horizontal) direction and 30 degrees in the sub-scanning (vertical) direction, for example. In addition, the laser radar 10 is configured to sequentially apply information of reflected light by irradiating pulse laser light every time the scanning direction changes by 0.1 degrees and receiving the reflected light, for example. Therefore, in the detection area including the monitoring area SR, 600 detection points are provided in the x direction and 300 detection points are provided in the y direction.

他方、検出装置本体20は、例えばパーソナルコンピュータから構成され、図1に示す通り、背景距離マップ生成部21、背景距離マップメモリ22、移動物体検出部23、及び出力制御部24を含んで構成される。背景距離マップ生成部21は、前述したレーザレーダ10を用いて得られる反射光情報から、検出領域内に移動物体がない状態におけるレーザレーダ10から検出領域内に設定された反射点までの距離(背景距離)を示す背景処理マップを生成する。   On the other hand, the detection apparatus main body 20 is constituted by a personal computer, for example, and includes a background distance map generation unit 21, a background distance map memory 22, a moving object detection unit 23, and an output control unit 24 as shown in FIG. The From the reflected light information obtained by using the laser radar 10 described above, the background distance map generation unit 21 determines the distance from the laser radar 10 to the reflection point set in the detection area when there is no moving object in the detection area ( A background processing map indicating the background distance is generated.

図3は、背景距離マップ生成部21の構成を示す図である。図3に示す通り、背景距離マップ生成部21は、レーザパルス走査部21a、反射光測定部21b、距離情報変換部21c、及び特異点除去部21dを含んで構成される。レーザパルス走査部21aは、レーザ光源14を駆動するとともに、主走査モータ12及び副走査モータ13を駆動して多面体ミラー11の回転とその揺動とによってパルスレーザ光の走査を制御する。このレーザパルス走査部21aは、主走査モータ12及び副走査モータ13を走査するときの主走査角度及び副走査角度を示す同期信号を出力する。   FIG. 3 is a diagram illustrating a configuration of the background distance map generation unit 21. As shown in FIG. 3, the background distance map generation unit 21 includes a laser pulse scanning unit 21a, a reflected light measurement unit 21b, a distance information conversion unit 21c, and a singular point removal unit 21d. The laser pulse scanning unit 21a drives the laser light source 14, and also drives the main scanning motor 12 and the sub-scanning motor 13 to control the scanning of the pulse laser light by the rotation of the polyhedral mirror 11 and its swing. The laser pulse scanning unit 21a outputs a synchronization signal indicating a main scanning angle and a sub scanning angle when the main scanning motor 12 and the sub scanning motor 13 are scanned.

反射光測定部21bは、レーザパルス走査部21aから出力される同期信号を受けてパルスレーザ光の物体による反射光の受光タイミングを計測する。距離情報変換部21cは、反射光測定部21bで計測された受光タイミング(時間)を距離に変換するものである。ここでいう距離は、レーザレーダ10から検出領域内の反射点各々までの距離である。   The reflected light measurement unit 21b receives the synchronization signal output from the laser pulse scanning unit 21a and measures the light reception timing of the reflected light by the object of the pulse laser beam. The distance information conversion unit 21c converts the light reception timing (time) measured by the reflected light measurement unit 21b into a distance. The distance here is a distance from the laser radar 10 to each reflection point in the detection region.

背景距離マップは、検出領域内におけるレーザレーダ10から各反射点までの距離情報を示すマップであり、反射光測定部21bにおける受光タイミングの計測及び距離情報変換部21cにおける変換処理を経て求められる距離情報を、レーザパルス走査部21aから求められる主走査角度及び副走査角度を示す情報に従って背景距離マップメモリ22上に順次マッピングしていくことにより作成される。即ち、パルスレーザ光の走査方向を示す主走査角度及び副走査角度によって特定される座標(背景距離マップメモリ22のアドレス)に、そのときに求められた距離情報を書き込むことで、背景距離マップメモリ22上にパルスレーザ光の反射点を前述した監視領域SRにおいて3次元的に特定するレーザレーダ画像を作成するものとなっている。   The background distance map is a map showing distance information from the laser radar 10 to each reflection point in the detection region, and is a distance obtained through measurement of the light reception timing in the reflected light measurement unit 21b and conversion processing in the distance information conversion unit 21c. The information is created by sequentially mapping the information on the background distance map memory 22 according to the information indicating the main scanning angle and the sub-scanning angle obtained from the laser pulse scanning unit 21a. That is, the background distance map memory is written by writing the distance information obtained at that time to the coordinates (address of the background distance map memory 22) specified by the main scanning angle and the sub scanning angle indicating the scanning direction of the pulse laser beam. A laser radar image for three-dimensionally specifying the reflection point of the pulse laser beam on the above-described monitoring region SR is created on 22.

特異点除去部21dは、背景距離マップメモリ22に記憶された背景距離マップを読み出し、背景距離マップに含まれる特異点を除去するものである。ここで、特異点とは、ノイズ又は計測漏れによって、背景距離マップ中における背景距離が異常な値を示す点である。背景距離マップは、各検出点におけるレーザレーダ10からの距離を示すものであるため、ある点について距離が「0」であることは通常生じ得ない。しかしながら、レーザレーダ10を用いた背景距離マップ作成時にレーザレーダ10に一時的に塵が付着した場合、又は電気的なノイズが生じた場合に背景距離が「0」になる可能性は全く無い訳ではない。そこで、特異点除去部21dはこのような特異点を除くために設けられる。尚、特異点を除去する処理の詳細は後述する。   The singular point removing unit 21d reads the background distance map stored in the background distance map memory 22, and removes the singular points included in the background distance map. Here, the singular point is a point where the background distance in the background distance map shows an abnormal value due to noise or measurement omission. Since the background distance map indicates the distance from the laser radar 10 at each detection point, it cannot normally occur that the distance is “0” for a certain point. However, there is no possibility that the background distance becomes “0” when dust is temporarily attached to the laser radar 10 when the background distance map is created using the laser radar 10 or when electrical noise occurs. is not. Therefore, the singular point removal unit 21d is provided to remove such singular points. Details of the process of removing singular points will be described later.

図1に戻り、移動物体検出部23は、前述したレーザレーダ10を用いて得られる各検出点における距離情報と、背景距離マップメモリ22に記憶された背景距離マップの内容との差を抽出した抽出データを生成して検出領域内の移動物体を検出する。ここで、検出領域内に移動物体がないと、各検出点におけるレーザレーダ10から各反射点までの距離は背景距離マップに等しくなる。一方、検出領域内に移動物体があると、レーザレーダ10からその移動物体までの距離は、移動物体がない場合における距離(背景距離)よりも短くなる。本実施形態は、この原理を用いて背景距離が短くなった検出点に、移動物体があるものと検出している。   Returning to FIG. 1, the moving object detection unit 23 extracts the difference between the distance information at each detection point obtained by using the laser radar 10 described above and the content of the background distance map stored in the background distance map memory 22. Extraction data is generated to detect a moving object in the detection area. Here, if there is no moving object in the detection area, the distance from the laser radar 10 to each reflection point at each detection point is equal to the background distance map. On the other hand, if there is a moving object in the detection area, the distance from the laser radar 10 to the moving object is shorter than the distance (background distance) when there is no moving object. In this embodiment, this principle is used to detect that a moving object is present at a detection point at which the background distance is shortened.

出力制御部24は背景距離マップメモリ22に記憶されている背景距離マップを読み出し、この背景距離マップで示される距離情報を、例えば遠距離ほど濃度が濃くなる濃淡情報に変換してモニタ30に出力する。尚、本実施形態では出力制御部24が背景距離マップを遠距離ほど濃度が濃くなる濃淡情報に変換する例について示すが、距離に応じて色が段階的に変化する色調変換を施すようにしてもよい。   The output control unit 24 reads the background distance map stored in the background distance map memory 22, converts the distance information indicated by the background distance map into, for example, light and dark information that becomes darker as the distance increases, and outputs it to the monitor 30. To do. In the present embodiment, an example is shown in which the output control unit 24 converts the background distance map into shading information in which the density becomes deeper as the distance increases. However, color conversion is performed so that the color changes stepwise according to the distance. Also good.

また、出力制御部24は、移動物体検出部23で生成された抽出データに基づいて、移動物体の形状を簡素化して空間座標に変換し、モニタ30に出力する。更に、検出された移動物体を囲む枠状の識別マークをモニタ30に表示された画像に重ねて表示し、これによって移動物体を強調表示して識別性を高めるようにする。また、出力制御部24は、モニタ30に表示した画像を、検出装置本体20に接続された画像記録装置31に適宜記録する。特に、前述した移動物体によって監視領域SR内に移動物体が進入したときに、前述したレーザレーダ画像とともに画像記録装置31に記録することで、監視領域SR内に進入した移動物体の特定に利用するようにしてもよい。   Further, the output control unit 24 simplifies the shape of the moving object based on the extracted data generated by the moving object detection unit 23, converts it into spatial coordinates, and outputs it to the monitor 30. Further, a frame-shaped identification mark surrounding the detected moving object is displayed so as to be superimposed on the image displayed on the monitor 30, thereby highlighting the moving object and enhancing the distinguishability. Further, the output control unit 24 appropriately records the image displayed on the monitor 30 in the image recording device 31 connected to the detection device main body 20. In particular, when a moving object enters the monitoring area SR by the moving object described above, it is used for specifying the moving object that has entered the monitoring area SR by recording it in the image recording device 31 together with the laser radar image described above. You may do it.

次に、上記構成の移動物体検出装置を用いた移動物体検出方法について説明する。本実施形態においては、検出領域内の移動物体を検出するために、予め監視領域SRを含む検出領域内に移動物体が無いときに背景距離マップを作成する処理が行われる。図4は、背景距離マップの作成方法を示すフローチャートである。図4に示す処理は背景距離マップ生成部21で行われる。処理が開始されると、背景距離マップ生成部21は、背景距離マップメモリ22の内容を全て「0」とし、背景距離マップの初期化を行う(ステップS10)。即ち、この処理においては、全ての検出点におけるレーザレーダ10から反射点までの距離が0メートルに設定される。   Next, a moving object detection method using the moving object detection apparatus having the above configuration will be described. In the present embodiment, in order to detect a moving object in the detection region, a process of creating a background distance map is performed when there is no moving object in the detection region including the monitoring region SR in advance. FIG. 4 is a flowchart showing a background distance map creation method. The process shown in FIG. 4 is performed by the background distance map generation unit 21. When the processing is started, the background distance map generation unit 21 sets all the contents of the background distance map memory 22 to “0” and initializes the background distance map (step S10). That is, in this process, the distance from the laser radar 10 to the reflection point at all detection points is set to 0 meter.

背景距離マップの初期化を終えると、背景距離マップ生成部21は背景距離マップの作成を終えたか否かを判断する(ステップS11)。ここでは、何れの検出点についても距離の計測を行っていないため判断結果は「NO」となる。次に、背景マップ生成部21に設けられるレーザパルス走査部21aがレーザ光源14の駆動及び主走査モータ12及び副走査モータ13の駆動を行って検出領域内の走査を開始する。   When the initialization of the background distance map is finished, the background distance map generation unit 21 determines whether or not the creation of the background distance map is finished (step S11). Here, since the distance is not measured for any of the detection points, the determination result is “NO”. Next, the laser pulse scanning unit 21 a provided in the background map generation unit 21 drives the laser light source 14 and the main scanning motor 12 and the sub scanning motor 13 to start scanning in the detection region.

走査が開始されると、反射光測定部21bは、レーザパルス走査部21aから出力される同期信号を受けてパルスレーザ光の物体による反射光の受光タイミングを計測する。次いで、距離情報変換部21cは、反射光測定部21bで計測された受光タイミング(時間)を距離に変換する。このようにして、最初の検出点における計測データが取得される(ステップS12:計測ステップ)。   When the scanning is started, the reflected light measuring unit 21b receives the synchronization signal output from the laser pulse scanning unit 21a and measures the light reception timing of the reflected light by the object of the pulse laser beam. Next, the distance information conversion unit 21c converts the light reception timing (time) measured by the reflected light measurement unit 21b into a distance. In this way, measurement data at the first detection point is acquired (step S12: measurement step).

計測データを取得すると、背景距離マップ生成部21は、最初の検出点における距離情報(背景距離)を背景距離マップメモリ22から読み出し、上記のステップS12で取得した計測データで示される距離が読み出した背景距離よりも長いか否かを判断する(ステップS13:背景距離マップ生成ステップ)。ここでは、背景距離マップメモリ22の内容が上記のステップS10で初期化されているため判断結果は「YES」となり、その検出点における背景距離が、ステップS12で計測された距離に更新される(ステップS14:背景距離マップ生成ステップ)。更新処理が終了すると、処理はステップS11に戻る。また、ステップS13の判断結果が「NO」である場合にも処理はステップS11に戻る。   When the measurement data is acquired, the background distance map generation unit 21 reads the distance information (background distance) at the first detection point from the background distance map memory 22, and the distance indicated by the measurement data acquired in step S12 is read. It is determined whether or not the distance is longer than the background distance (step S13: background distance map generation step). Here, since the content of the background distance map memory 22 is initialized in step S10, the determination result is “YES”, and the background distance at the detected point is updated to the distance measured in step S12 ( Step S14: Background distance map generation step). When the update process ends, the process returns to step S11. The process also returns to step S11 if the determination result in step S13 is “NO”.

処理がステップS11に戻ると、再度背景距離マップの作成が終了したか否かが判断される。この判断結果が「NO」の場合には、次の検出点における計測データが取得され(ステップS12)、計測データで示される距離が次の検出点における背景距離よりも長いか否かが判断され(ステップS13)、長いと判断された場合(判断結果が「YES」の場合)にその検出点における背景距離が更新される(ステップS14)。以下同様に、ステップS11の判断結果が「NO」である場合には、ステップS12〜S14の処理が繰り返される。   When the process returns to step S11, it is determined again whether or not the creation of the background distance map is completed. When the determination result is “NO”, measurement data at the next detection point is acquired (step S12), and it is determined whether or not the distance indicated by the measurement data is longer than the background distance at the next detection point. (Step S13) When it is determined that the length is long (when the determination result is “YES”), the background distance at the detected point is updated (Step S14). Similarly, when the determination result of step S11 is “NO”, the processes of steps S12 to S14 are repeated.

以上の処理により全ての検出点での計測を行って背景距離マップの作成が終了すると、ステップS11の判断結果は「YES」となる。背景マップの作成が終了すると、無効背景距離の置換が行われる(ステップS15)。ここで、無効背景距離とは、背景距離マップに含まれる所定距離以上の背景距離をいう。例えば、レーダレーザ10の検出領域に空が含まれていると、この検出点においては反射点が存在しないため測定不能となる。このため、この検出点においては背景距離を予め設定した仮想遠方距離(例えば、200m)に置換する処理を行う。   When the measurement at all the detection points is performed by the above processing and the creation of the background distance map is completed, the determination result in step S11 is “YES”. When the creation of the background map is completed, the invalid background distance is replaced (step S15). Here, the invalid background distance refers to a background distance equal to or greater than a predetermined distance included in the background distance map. For example, if the detection area of the radar laser 10 includes sky, measurement is not possible because there is no reflection point at this detection point. Therefore, at this detection point, a process of replacing the background distance with a preset virtual far distance (for example, 200 m) is performed.

次いで、特異点除去部21dが背景距離マップに含まれる特異点を除去する処理を行う(ステップS16:特異点除去ステップ)。図5は、背景距離マップに含まれる特異点を除去する処理を説明するための図である。特異点の除去を行うために、特異点除去部21dは、まず背景距離マップに含まれる特異点を判別する処理を行う。この処理は、背景距離マップ内において周囲の検出点における背景距離との差が所定の閾値以上である検出点を特異点として判別する。 Next, the singularity removing unit 21d performs processing for removing singularities included in the background distance map (step S16 : singularity removing step ). FIG. 5 is a diagram for explaining processing for removing singular points included in the background distance map. In order to remove the singularity, the singularity removal unit 21d first performs a process of determining the singularity included in the background distance map. In this process, a detection point whose difference from the background distance at the surrounding detection points in the background distance map is equal to or greater than a predetermined threshold is determined as a singular point.

例えば、図5(a)に示す通り、背景距離マップ内のある検出点P1の背景距離と、検出点P1の周囲にある8個の検出点P2〜P9の背景距離との差を求める。図5に示す例では、検出点P1の背景距離は10メートルであり、検出点P2〜P9の背景距離は50〜54メートルである。この例の場合において、例えば所定の閾値が5メートルに設定されている場合には、検出点P1と周囲の各検出点P2〜P9との差は何れも閾値を超えているため、特異点除去部21dは検出点P1を特異点と判定する。以上の処理を背景距離マップ内の全ての検出点について行う。尚、背景距離マップの端部においては、周囲に存在する検出点が3点又は5点となる場合があるが、この場合にはこれら3点又は5点の検出点における背景距離との差を求める。   For example, as shown in FIG. 5A, the difference between the background distance of a detection point P1 in the background distance map and the background distances of eight detection points P2 to P9 around the detection point P1 is obtained. In the example shown in FIG. 5, the background distance of the detection point P1 is 10 meters, and the background distance of the detection points P2 to P9 is 50 to 54 meters. In this example, for example, when the predetermined threshold is set to 5 meters, the difference between the detection point P1 and each of the surrounding detection points P2 to P9 exceeds the threshold. The unit 21d determines that the detection point P1 is a singular point. The above processing is performed for all detection points in the background distance map. In addition, at the end of the background distance map, there are cases where there are 3 or 5 detection points in the surroundings. In this case, the difference from the background distance at these 3 or 5 detection points is calculated. Ask.

特異点の判定を終えると、特異点除去部21dは、特異点であると判定した検出点の周囲の検出点における背景距離の平均値を求め、この平均値を特異点であると判定した検出点における背景距離に設定することで特異点を除去する。このとき、特異点であると判定した検出点の周囲の検出点における背景距離の平均値を求める際に、特異点であると判定した検出点との距離の差が最も小さい検出点を除いてから平均値を算出する。   When the determination of the singular point is completed, the singular point removing unit 21d obtains an average value of the background distances at the detection points around the detection point determined to be the singular point, and the average value is determined to be the singular point. Singularity is removed by setting the background distance at the point. At this time, when obtaining the average value of the background distances at the detection points around the detection point determined to be a singular point, except for the detection point having the smallest distance difference from the detection point determined to be a singular point The average value is calculated from

図5(a)を用いて説明すると、検出点P1の周囲にある8個の検出点P2〜P9のうち、検出点P1の背景距離との差が最も小さくなるのは検出点P2である。このため、検出点P2を除いた検出点P3〜P9の背景距離の平均値(52.28)を求め、この平均値を四捨五入した値「52」を、図5(b)に示す通り検出点P1の背景距離とする。ここで、特異点であると判定した検出点との距離の差が最も小さい検出点を除いてから平均値を算出するのは、特異点と判定した検出点の周囲の検出点の1つが特異点である場合の影響を除くためである。   Referring to FIG. 5A, among the eight detection points P2 to P9 around the detection point P1, the detection point P2 has the smallest difference from the background distance of the detection point P1. Therefore, an average value (52.28) of the background distances of the detection points P3 to P9 excluding the detection point P2 is obtained, and a value “52” obtained by rounding off the average value is detected as shown in FIG. The background distance is P1. Here, the average value is calculated after removing the detection point having the smallest distance from the detection point determined to be a singular point because one of the detection points around the detection point determined to be a singular point is singular. This is in order to eliminate the influence of points.

以上の処理によって背景距離マップが作成される。尚、以上の説明においては、ステップS10において背景距離マップを初期化した後で、全ての検出点について1度の計測のみが行われた場合にステップS11において背景距離マップの作成終了と判断していたが、全ての検出点について数回に亘る計測が行われたときに背景距離マップの作成終了と判断するようにしても良い。また、工事等によって背景が変化する場合があるため、ステップS10における初期化を行わずにステップS11〜S16書影を行って、背景距離マップを作成(更新)する処理を定期的に行うことが望ましい。背景距離マップの更新は、例えば数時間毎、毎日、1週間毎、又は毎月程度の時間間隔をもって行い、更新間隔が1日以上である場合には、例えば車両等の通行が少ない深夜に行うことが好ましい。   A background distance map is created by the above processing. In the above description, after the background distance map is initialized in step S10, if only one measurement is performed for all detection points, it is determined in step S11 that the background distance map has been created. However, it may be determined that the creation of the background distance map is completed when the measurement is performed several times for all the detection points. In addition, since the background may change due to construction or the like, the process of creating (updating) the background distance map by performing the writing in steps S11 to S16 without performing the initialization in step S10 may be performed periodically. desirable. Update the background distance map, for example, every few hours, every day, every week, or every month. If the update interval is more than one day, for example, it should be done at midnight when there is little traffic, for example Is preferred.

背景距離マップの作成が終了すると、検出領域内の移動物体を検出する処理が行われる。この処理の詳細は以下の通りである。つまり、レーザレーダ10が検出領域を走査してある検出点での距離情報が計測されると、計測された距離情報は検出装置本体20に入力される。移動物体検出部23は入力された距離情報が得られた検出点及びその周辺の検出点における背景距離を読み出す。   When the creation of the background distance map is completed, processing for detecting a moving object in the detection region is performed. The details of this process are as follows. That is, when distance information at a detection point where the laser radar 10 scans the detection area is measured, the measured distance information is input to the detection apparatus main body 20. The moving object detection unit 23 reads the background distance at the detection point where the input distance information is obtained and the detection points around it.

図6は、移動物体を抽出する処理を説明するための図である。図6に示す通り、レーザレーダ10によって計測されたある検出点P11の距離情報が20メートルであるとする。また、背景距離マップメモリ22から検出点P11及びその周辺の検出点P12〜P19の背景距離を読み出す。図6に示す例においては、背景距離マップメモリ22から読み出された検出点P11〜P19の背景距離は、12〜14メートル及び50〜52メートルである。   FIG. 6 is a diagram for explaining a process of extracting a moving object. As shown in FIG. 6, it is assumed that the distance information of a certain detection point P11 measured by the laser radar 10 is 20 meters. Further, the background distances of the detection point P11 and the surrounding detection points P12 to P19 are read from the background distance map memory 22. In the example shown in FIG. 6, the background distances of the detection points P11 to P19 read from the background distance map memory 22 are 12 to 14 meters and 50 to 52 meters.

移動物体を抽出するには、計測された距離情報と背景距離マップメモリ22から読み出された背景距離の各々との差分を求め、その差分が所定の閾値以下となるものが含まれていない場合に、その検出点に移動物体が配置されているとして抽出する。図6に示す例では、背景距離マップメモリ22から読み出された検出点P11〜P19各々の背景距離から計測距離である20メートルを減算する。例えば、閾値を3メートルと設定した場合に、図6に示す例では何れの減算結果も閾値以下にはならないため、検出点P11には移動物体が配置されていることになる。   In order to extract a moving object, the difference between the measured distance information and each of the background distances read from the background distance map memory 22 is obtained, and when the difference is not equal to or less than a predetermined threshold value is not included Then, it is extracted that a moving object is arranged at the detection point. In the example shown in FIG. 6, 20 meters that is the measurement distance is subtracted from the background distance of each of the detection points P11 to P19 read from the background distance map memory 22. For example, when the threshold is set to 3 meters, in the example shown in FIG. 6, none of the subtraction results is less than or equal to the threshold, so that a moving object is arranged at the detection point P11.

図7は、移動物体が配置されている様子を示す図である。図7に示す例において、レーザレーダ10からビルBL2までの距離が上記の背景距離であり。レーザレーダ10から移動物体MOまでの距離がレーザレーダ10の走査によって計測された距離情報である。本実施形態においては、レーザレーダ10からの距離の変化を検出して移動物体の有無を検出している。上記の処理にて得られた減算結果のうち、最も値が小さいものが背景と移動物体との距離(L2−L1)となる。   FIG. 7 is a diagram illustrating a state where moving objects are arranged. In the example shown in FIG. 7, the distance from the laser radar 10 to the building BL2 is the background distance. The distance from the laser radar 10 to the moving object MO is distance information measured by scanning with the laser radar 10. In this embodiment, the presence or absence of a moving object is detected by detecting a change in the distance from the laser radar 10. Of the subtraction results obtained by the above processing, the smallest value is the distance (L2-L1) between the background and the moving object.

ここで、上記処理において、移動物体を抽出する際に、計測された距離情報と、背景距離マップメモリ22から読み出された背景距離の各々との差分を求めるのは、レーザレーダ10の主走査角度及び副走査角度には、誤差が生ずる可能性があるためである。尚、図6に示す例では、レーザレーダ10によって検出点P11での距離情報が20メートルと計測されているが、この計測結果は上記の誤差によって最も差が小さな計測点P19の計測結果であると考えることができる。   Here, in the above processing, when extracting the moving object, the difference between the measured distance information and each of the background distances read from the background distance map memory 22 is obtained by the main scanning of the laser radar 10. This is because an error may occur in the angle and the sub-scanning angle. In the example shown in FIG. 6, the distance information at the detection point P11 is measured as 20 meters by the laser radar 10, but this measurement result is the measurement result of the measurement point P19 having the smallest difference due to the above error. Can be considered.

検出領域に設定された全ての検出点において以上の処理が行われ、移動物体の抽出が行われる。移動物体の抽出処理が終了すると、その抽出結果が出力制御部24に出力される。出力制御部24は、背景距離マップメモリ22から背景距離マップを読み出して遠距離ほど濃度が濃くなる濃淡情報に変換するとともに、移動物体検出部23から出力される抽出結果(抽出データ)に基づいて移動物体の形状を簡素化して空間座標に変換する等の処理を行って、これらを合成してモニタ30に出力する。また、画像記録装置31への記録指示がなされている場合には、モニタ30に表示した画像を画像記録装置31に出力して記録させる。   The above processing is performed at all detection points set in the detection area, and moving objects are extracted. When the moving object extraction process ends, the extraction result is output to the output control unit 24. The output control unit 24 reads the background distance map from the background distance map memory 22 and converts the background distance map into light / dark information that becomes darker as the distance increases, and based on the extraction result (extraction data) output from the moving object detection unit 23. Processing such as simplifying the shape of the moving object and converting it to spatial coordinates is performed, and these are combined and output to the monitor 30. When a recording instruction is given to the image recording device 31, the image displayed on the monitor 30 is output to the image recording device 31 for recording.

以上説明した通り、本実施形態においては、移動物体がない場合の距離(背景距離)と、背景の前に移動物体があるときの距離との差から移動物体を検出しているため、太陽光照射の有無による照度変化等の環境変化があっても安定して移動物体を検出することができる。また、従来の如く、背景として基準面を定めておらず、レーザレーダ10から各反射点までの距離を背景距離としているため、背景と移動物体との位置関係に拘わらず安定して移動物体の検出を行うことができる。   As described above, in the present embodiment, the moving object is detected from the difference between the distance when there is no moving object (background distance) and the distance when there is a moving object in front of the background. A moving object can be detected stably even when there is an environmental change such as an illuminance change due to the presence or absence of irradiation. Further, unlike the prior art, the reference plane is not defined as the background, and the distance from the laser radar 10 to each reflection point is the background distance. Therefore, the moving object can be stably displayed regardless of the positional relationship between the background and the moving object. Detection can be performed.

尚、上記実施形態においては、路面R上の移動物体を検出する場合を例に挙げて説明したが、本発明は移動物体がない場合の距離(背景距離)と、背景の前に移動物体があるときの距離との差から移動物体を検出するものであるため、例えば空中を移動するゴンドラ等の種々の移動物体を検出することができる。   In the above embodiment, the case where a moving object on the road surface R is detected has been described as an example. However, in the present invention, the distance when there is no moving object (background distance) and the moving object before the background Since a moving object is detected from a difference from a certain distance, various moving objects such as a gondola moving in the air can be detected.

本発明の一実施形態による移動物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving object detection apparatus by one Embodiment of this invention. レーザレーダ10の取り付け状態の一例を示す図である。It is a figure which shows an example of the attachment state of the laser radar. 背景距離マップ生成部21の構成を示す図である。3 is a diagram showing a configuration of a background distance map generation unit 21. FIG. 背景距離マップの作成方法を示すフローチャートである。It is a flowchart which shows the preparation method of a background distance map. 背景距離マップに含まれる特異点を除去する処理を説明するための図である。It is a figure for demonstrating the process which removes the singular point contained in a background distance map. 移動物体を抽出する処理を説明するための図である。It is a figure for demonstrating the process which extracts a moving object. 移動物体が配置されている様子を示す図である。It is a figure which shows a mode that a moving object is arrange | positioned.

符号の説明Explanation of symbols

10 レーザレーダ
21 背景距離マップ生成部(背景距離マップ生成手段)
21d 特異点除去部(特異点除去手段)
23 移動物体検出部(検出手段)
SR 監視領域(所定の領域)
10 Laser Radar 21 Background Distance Map Generation Unit (Background Distance Map Generation Unit)
21d Singularity removal unit (singularity removal means)
23 Moving object detection unit (detection means)
SR monitoring area (predetermined area)

Claims (3)

少なくとも所定の領域を含む検出領域を走査するレーザレーダと、
前記レーザレーダにより計測される距離情報と前記レーザレーダの走査位置を示す情報とから前記検出領域全体の背景距離を示す背景距離マップを生成する手段であって、前記背景距離マップに含まれる特異点の値を、当該特異点周辺における背景距離から当該特異点の値との差が最も小さいものを除いた残りの背景距離の平均値に設定することで、前記特異点を除去する特異点除去手段を備える背景距離マップ生成手段と、
前記レーザレーダの走査により計測される距離情報と当該距離情報が得られた検出点及びその周囲における前記背景距離マップの背景距離とを比較して前記所定の領域内の移動物体を検出する検出手段と
を備えることを特徴とする移動物体検出装置。
A laser radar that scans a detection area including at least a predetermined area;
Means for generating a background distance map indicating the background distance of the entire detection region from the information indicating the scanning position of the distance information and the laser radar, which is measured by the laser radar, the singularity contained in the background distance map The singular point removing means for removing the singular point by setting the value of the average value of the remaining background distances by excluding the difference between the background distance around the singular point and the value of the singular point. A background distance map generating means comprising:
Detection means for detecting a moving object in the predetermined region by comparing the distance information measured by the scanning of the laser radar, the detection point from which the distance information is obtained, and the background distance of the background distance map around the detection point. And a moving object detection device.
前記背景距離マップ生成手段は、前記レーザレーダにより計測される距離情報と前記レーザレーダの走査方向の情報とから、前記背景距離マップを定期的に更新することを特徴とする請求項1記載の移動物体検出装置。   2. The movement according to claim 1, wherein the background distance map generation means periodically updates the background distance map from distance information measured by the laser radar and information on a scanning direction of the laser radar. Object detection device. 少なくとも所定の領域を含む検出領域を、レーザレーダを走査して計測する計測ステップと、A measurement step of scanning a laser radar and measuring a detection area including at least a predetermined area;
前記レーザレーダにより計測される距離情報と前記レーザレーダの走査位置を示す情報とから前記検出領域全体の背景距離を示す背景距離マップを生成する背景距離マップ生成ステップと、  A background distance map generating step for generating a background distance map indicating a background distance of the entire detection area from distance information measured by the laser radar and information indicating a scanning position of the laser radar;
前記背景距離マップに含まれる特異点周辺の背景距離から当該特異点の値との差が最も小さいものを除いた残りの背景距離の平均値を求め、前記特異点の値を当該平均値に設定することで前記特異点を除去する特異点除去ステップと、  An average value of the remaining background distances obtained by excluding those having the smallest difference from the value of the singular point from the background distance around the singular point included in the background distance map, and setting the value of the singular point as the average value A singularity removal step of removing the singularity by
前記レーザレーダの走査により計測される距離情報と当該距離情報が得られた検出点及びその周囲における前記背景距離マップの背景距離とを比較して前記所定の領域内の移動物体を検出する検出ステップと  A detection step of detecting a moving object in the predetermined region by comparing the distance information measured by the scanning of the laser radar, the detection point where the distance information is obtained, and the background distance of the background distance map around the detection point. When
を含むことを特徴とする移動物体検出方法。  A moving object detection method comprising:
JP2004114163A 2004-04-08 2004-04-08 Moving object detection apparatus and method Expired - Lifetime JP3941790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004114163A JP3941790B2 (en) 2004-04-08 2004-04-08 Moving object detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004114163A JP3941790B2 (en) 2004-04-08 2004-04-08 Moving object detection apparatus and method

Publications (2)

Publication Number Publication Date
JP2005300259A JP2005300259A (en) 2005-10-27
JP3941790B2 true JP3941790B2 (en) 2007-07-04

Family

ID=35331970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004114163A Expired - Lifetime JP3941790B2 (en) 2004-04-08 2004-04-08 Moving object detection apparatus and method

Country Status (1)

Country Link
JP (1) JP3941790B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4993084B2 (en) * 2007-03-20 2012-08-08 株式会社Ihi Laser monitoring device
JP2008241273A (en) * 2007-03-26 2008-10-09 Ihi Corp Laser radar device and its control method
JP4993087B2 (en) * 2007-03-28 2012-08-08 株式会社Ihi Laser monitoring device
JP5278721B2 (en) * 2007-04-27 2013-09-04 国立大学法人 東京大学 Laser measurement system and method
US7965384B2 (en) * 2007-09-27 2011-06-21 Omron Scientific Technologies, Inc. Clutter rejection in active object detection systems
JP2009186353A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Object detecting device and object detecting method
JP5093203B2 (en) * 2008-09-26 2012-12-12 株式会社デンソーウェーブ Security system
JP2010147519A (en) * 2008-12-16 2010-07-01 Hitachi Ltd Radio communication system
WO2010070708A1 (en) 2008-12-18 2010-06-24 トヨタ自動車株式会社 Radar system
JP2010249569A (en) * 2009-04-13 2010-11-04 Ihi Corp Obstacle detection method and laser distance measuring instrument
JP5765694B2 (en) * 2009-04-24 2015-08-19 北陽電機株式会社 Ranging method and in-vehicle ranging device
JP5649298B2 (en) * 2009-11-05 2015-01-07 三菱重工業株式会社 Object detection apparatus and object detection method
JP5723096B2 (en) * 2009-12-24 2015-05-27 日本信号株式会社 Distance image processing system
JP2011257276A (en) * 2010-06-09 2011-12-22 Ihi Corp Topographical data acquisition method
JP5893869B2 (en) * 2011-08-18 2016-03-23 三菱重工業株式会社 Measuring device, measuring method, and program
JP5991084B2 (en) * 2011-08-29 2016-09-14 株式会社デンソーウェーブ Laser radar equipment
JP6091821B2 (en) * 2012-09-20 2017-03-08 住友建機株式会社 Excavator
JP6045865B2 (en) * 2012-09-20 2016-12-14 住友建機株式会社 Excavator
JP6309099B2 (en) * 2014-07-03 2018-04-11 三菱電機株式会社 Monitoring device
JP6800681B2 (en) * 2016-09-30 2020-12-16 キヤノン株式会社 Image processing equipment, image processing methods and computer programs
JP6756448B2 (en) * 2016-12-22 2020-09-16 三菱電機株式会社 Monitoring device
US11393185B2 (en) * 2017-02-06 2022-07-19 Mitsubishi Electric Corporation Monitoring device
WO2018168552A1 (en) 2017-03-14 2018-09-20 コニカミノルタ株式会社 Object detection system
JP6895074B2 (en) * 2017-08-30 2021-06-30 コニカミノルタ株式会社 Object detection system and object detection program
EP3872527A4 (en) 2018-10-24 2022-04-20 Konica Minolta, Inc. Image processing device, control program, and image processing method
JP2021032794A (en) * 2019-08-28 2021-03-01 パイオニア株式会社 Measuring device, control method, program, and storage medium
JP7178577B2 (en) * 2020-03-12 2022-11-28 パナソニックIpマネジメント株式会社 Multipath elimination method and ranging device

Also Published As

Publication number Publication date
JP2005300259A (en) 2005-10-27

Similar Documents

Publication Publication Date Title
JP3941790B2 (en) Moving object detection apparatus and method
CN109061703B (en) Method, apparatus, device and computer-readable storage medium for positioning
CA2907047C (en) Method for generating a panoramic image
US9659237B2 (en) Imaging through aerosol obscurants
CN108020825A (en) Laser radar, Laser video camera head, the fusion calibration system of video camera and method
JP2007219231A (en) Aerial image processing device and aerial image processing method
CN101523439A (en) Method and apparatus for detecting objects from terrestrial based mobile mapping data
JP2016166853A (en) Location estimation device and location estimation method
CN110109144B (en) Road shoulder detection method and device based on multi-line laser radar
JP3514469B2 (en) 3D object measurement system using laser
KR20090047657A (en) System for meserment of the snowfall and method for meserment of the snowfall
CN115151788A (en) Apparatus, method and system for measuring orientation on an object
JP6876445B2 (en) Data compressors, control methods, programs and storage media
JP2005346664A (en) Coastline extraction method and coastline extraction system
JP6895074B2 (en) Object detection system and object detection program
JP4098253B2 (en) Detection apparatus and detection method
US20220103762A1 (en) Imaging apparatus, imaging system, and imaging method
WO2021014846A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon
JP6947853B2 (en) Peripheral information processing method
CN110390715B (en) Method for simultaneously detecting shadows of building roof, building wall and ground
CN111596090A (en) Method and device for measuring vehicle running speed, vehicle and medium
JPH11175736A (en) Device and method for tracking body area
JP7241948B2 (en) Road surface condition investigation system, road surface condition investigation device, and road surface condition investigation method
CN109784315A (en) Tracking detection method, device, system and the computer storage medium of 3D barrier
Vögtle et al. Fusion of 3D building models derived from first and last pulse laserscanning data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070326

R151 Written notification of patent or utility model registration

Ref document number: 3941790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100413

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100413

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250