JP7073673B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP7073673B2 JP7073673B2 JP2017210136A JP2017210136A JP7073673B2 JP 7073673 B2 JP7073673 B2 JP 7073673B2 JP 2017210136 A JP2017210136 A JP 2017210136A JP 2017210136 A JP2017210136 A JP 2017210136A JP 7073673 B2 JP7073673 B2 JP 7073673B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- measurement point
- unit
- measurement points
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Geophysics And Detection Of Objects (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、物体検知装置及び物体検知方法に関するものである。 The present invention relates to an object detection device and an object detection method.
従来から、車道や踏切等の様々な場所においては、レーザセンサユニットを用いた物体検知装置が用いられている。例えば車道においては、車両の有無を物体検知装置で検知し、計測結果の時系列的な変化から渋滞状況の把握が行われている。また踏切においては、踏切内の障害物の有無を物体検知装置で検知し、電車走行の安全性の確認が行われている。このような物体検知装置では、レーザセンサユニットから照射した計測用レーザ光の反射光を受光して計測用レーザ光の反射位置(計測点)を検出し、この計測点が予め設定された検知対象エリアに位置しているか否かに基づいて物体の検知を行っている(例えば特許文献1参照)。 Conventionally, an object detection device using a laser sensor unit has been used in various places such as a roadway and a railroad crossing. For example, on a roadway, the presence or absence of a vehicle is detected by an object detection device, and the traffic jam situation is grasped from the time-series change of the measurement result. At railroad crossings, the presence or absence of obstacles in the railroad crossing is detected by an object detection device, and the safety of train running is confirmed. In such an object detection device, the reflected light of the measurement laser light emitted from the laser sensor unit is received to detect the reflection position (measurement point) of the measurement laser light, and this measurement point is a preset detection target. An object is detected based on whether or not it is located in an area (see, for example, Patent Document 1).
ところで、上述のような物体検知装置においては、検知対象エリア内の近接した領域に複数の計測点が連続して配列されている場合には、これらの複数の計測点が1つの物体であると推定して物体の凡その大きさを求めている。しかしながら、車両等が接近して計測された場合や、雪片や落ち葉等が検知対象エリアで舞っている場合には、異なる物体等でレーザ光が反射して得られた複数の計測点を1つの物体として認識し、大きな物体が検知対象エリア内に存在するとご認識する恐れがある。このため、物体検知装置において、物体の大きさをより正確に検出可能とすることが望まれている。 By the way, in the above-mentioned object detection device, when a plurality of measurement points are continuously arranged in a close area in a detection target area, it is considered that these the plurality of measurement points are one object. It is estimated and the approximate size of the object is obtained. However, when a vehicle or the like is measured in close proximity, or when snowflakes or fallen leaves are flying in the detection target area, a plurality of measurement points obtained by reflecting the laser beam on different objects or the like are combined into one. There is a risk of recognizing it as an object and recognizing that a large object exists in the detection target area. Therefore, it is desired that the object detection device can detect the size of the object more accurately.
本発明は、上述する問題点に鑑みてなされたもので、物体検知装置及び物体検知方法において、物体の大きさの検出精度を向上させることを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to improve the detection accuracy of the size of an object in an object detection device and an object detection method.
本発明は、上記課題を解決するための手段として、以下の構成を採用する。 The present invention adopts the following configuration as a means for solving the above problems.
第1の発明は、計測用のレーザ光を射出かつ射出方向を変更可能であると共に上記レーザ光の反射光を受光して電気信号として出力するレーザセンサユニットと、上記レーザセンサユニットの出力信号に基づいて物体の検知を行う信号処理部とを備える物体検知装置であって、上記信号処理部が、予め設定された検知対象エリアに位置するエリア内計測点を抽出し、上記エリア内計測点に隣接すると共に上記検知対象エリアの外に位置するエリア外計測点に基づいて、上記エリア内計測点が示す物体の大きさを規定するという構成を採用する。 The first invention comprises a laser sensor unit that emits a laser beam for measurement and can change the emission direction, receives the reflected light of the laser beam and outputs it as an electric signal, and an output signal of the laser sensor unit. It is an object detection device including a signal processing unit that detects an object based on the above, and the signal processing unit extracts measurement points in an area located in a preset detection target area and uses them as measurement points in the area. A configuration is adopted in which the size of the object indicated by the measurement points in the area is specified based on the measurement points outside the area that are adjacent to each other and located outside the detection target area.
第2の発明は、上記第1の発明において、上記信号処理部が、上記エリア内計測点の側方に隣接するエリア外計測点に基づいて上記エリア内計測点が示す物体の水平方向の幅寸法を求めるという構成を採用する。 In the second invention, in the first invention, the signal processing unit has a horizontal width of an object indicated by the measurement point in the area based on the measurement point outside the area adjacent to the side of the measurement point in the area. Adopt the configuration of finding the dimensions.
第3の発明は、上記第1または第2の発明において、上記信号処理部が、予め設定された個数の範囲で上記エリア内計測点に対して隣接する計測点を探索し、検索範囲に上記エリア外計測点が存在しない場合には、当該エリア内計測点に対するエリア外計測点の探索を終了するという構成を採用する。 In the third aspect of the invention, in the first or second invention, the signal processing unit searches for measurement points adjacent to the measurement points in the area within a preset number range, and the search range is set to the above. If the out-of-area measurement point does not exist, the configuration of ending the search for the out-of-area measurement point for the in-area measurement point is adopted.
第4の発明は、上記第1~第3いずれかの発明において、上記信号処理部が、少なくとも側方及び上方のいずれかの方向に上記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に上記エリア外計測点が隣接する方向における上記エリア内計測点が示す物体の端部位置を上記エリア外計測点に基づいて規定し、下方に上記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に上記エリア外計測点が隣接する方向における上記エリア内計測点が示す物体の端部位置を上記エリア外計測点に基づいて規定しないという構成を採用する。 In the fourth aspect of the invention, in any of the first to third inventions, the signal processing unit has an out-of-area measurement point adjacent to the in-area measurement point at least in either the lateral or upward direction. In this case, the end position of the object indicated by the measurement point in the area in the direction in which the measurement point outside the area is adjacent to the measurement point in the area is defined based on the measurement point outside the area, and the measurement point in the area is lowered below. When there is an out-of-area measurement point adjacent to the area, the end position of the object indicated by the in-area measurement point in the direction in which the out-of-area measurement point is adjacent to the in-area measurement point is determined based on the out-of-area measurement point. Adopt a configuration that does not specify.
第5の発明は、計測用のレーザ光を射出かつ射出方向を変更可能であると共に上記レーザ光の反射光を受光して電気信号として出力するレーザセンサユニットを用いた物体検知方法であって、予め設定された検知対象エリアに位置するエリア内計測点を抽出し、上記エリア内計測点に隣接すると共に上記検知対象エリアの外に位置するエリア外計測点に基づいて、上記エリア内計測点が示す物体の大きさを規定するという構成を採用する。 A fifth invention is an object detection method using a laser sensor unit that can emit a laser beam for measurement and change the emission direction, and also receives the reflected light of the laser beam and outputs it as an electric signal. The measurement points in the area located in the preset detection target area are extracted, and the measurement points in the area are set based on the measurement points outside the area that are adjacent to the measurement points in the area and located outside the detection target area. Adopt a configuration that defines the size of the object to be shown.
本発明によれば、従来の物体検知装置及び物体検知方法において用いられていた検知対象エリア内の計測点(エリア内計測点)だけでなく、検知対象エリアの外の計測点(エリア外計測点)も用いて、エリア内計測点が示す物体の大きさを規定する。エリア外計測点を挟むように位置する2つのエリア内計測点の各々が示す物体は、別の物体である可能性がある。本発明によれば、このようなエリア外計測点を用いることによって、物体の大きさをより正確に規定するため、物体の大きさの検出精度を向上させることができる。したがって、本発明によれば、例えば接近した複数の車両、歩行者を別々の物体と認知することでエリア内に存在する物体の数をより正確に算出することができる。また雪片、雨粒及び木の葉等をより正確に1つ1つが障害物とならない小さな物体であると認知することができ、誤検知をより確実に防止することが可能となる。 According to the present invention, not only the measurement points in the detection target area (measurement points in the area) used in the conventional object detection device and the object detection method, but also the measurement points outside the detection target area (measurement points outside the area). ) Is also used to specify the size of the object indicated by the measurement point in the area. The object indicated by each of the two in-area measurement points located so as to sandwich the out-of-area measurement point may be another object. According to the present invention, by using such an out-of-area measurement point, the size of the object is defined more accurately, so that the detection accuracy of the size of the object can be improved. Therefore, according to the present invention, for example, by recognizing a plurality of approaching vehicles and pedestrians as separate objects, the number of objects existing in the area can be calculated more accurately. In addition, snowflakes, raindrops, leaves, etc. can be more accurately recognized as small objects that do not become obstacles, and false detection can be prevented more reliably.
以下、図面を参照して、本発明に係る物体検知装置及び物体検知方法の一実施形態について説明する。なお、以下の図面において、各部材を認識可能な大きさとするために、各部材の縮尺を適宜変更している。 Hereinafter, an embodiment of the object detection device and the object detection method according to the present invention will be described with reference to the drawings. In the following drawings, the scale of each member is appropriately changed in order to make each member recognizable.
図1は、本実施形態の物体検知装置1の概略構成を示すブロック図である。この図に示すように、本実施形態の物体検知装置1は、レーザセンサユニット2と、信号処理部3と、ユニット制御部4とを備えている。
FIG. 1 is a block diagram showing a schematic configuration of the
レーザセンサユニット2は、計測用のレーザ光を射出かつ射出方向を変更可能であると共にレーザ光の反射光を受光して電気信号として出力する。このレーザセンサユニット2は、特に構造が限定されるものではないが、例えば、レーザ光を射出する光源、光源から射出されたレーザ光を水平方向に走査するポリゴンミラー等のスキャン機構、ポリゴンミラーごと傾斜させることによりレーザ光を上下方向に振るスイング機構、及び、レーザ光の反射光を受光して電気信号に変換して出力する受光部等を備えている。このようなレーザセンサユニット2は、1フレームの計測データを得るために、ユニット制御部4の制御の下、レーザ光を左右方向(以下、スキャン方向)の一方の端部から他方の端部までに連続的に走査するスキャン動作を、スイング角度(上下方向の角度)を段階的に変化させる都度行う。
The
信号処理部3は、レーザセンサユニット2の出力信号に基づいて、レーザ光が反射した位置(計測点)を抽出し、計測点に基づいて予め設定された検知対象エリアに検知対象物体が位置しているか否かの結果を出力する。このような信号処理部3は、図1に示すように、抽出部3a、検索部3b、グループ化部3c、変換部3d、ノイズ削除部3e、物体合成部3f、判定部3g、物体情報付与部3h、出力部3i等の機能部を有している。
The signal processing unit 3 extracts the position (measurement point) where the laser beam is reflected based on the output signal of the
本実施形態の物体検知装置1は、計測用のレーザ光にて計測可能な空間のうち、予め設定された一部空間を検知対象エリアとし、この検知対象エリア内に検知対象物体が存在するか否かを検出結果として出力する。抽出部3aは、レーザ光の射出方向を変更して得られる複数の計測点のうち、検知対象エリアに位置する計測点(以下、エリア内計測点と称する)の抽出を行う。
In the
検索部3bは、検知対象エリアの外部に位置する計測点(以下、エリア外計測点と称する)であって、エリア内計測点に対してスキャン方向あるいはスイング方向に隣接するものを検索する。また、検索部3bは、検索の結果、エリア内計測点に対してスキャン方向に隣接するエリア外計測点が存在する場合には、当該エリア外計測点に基づいて、エリア内計測点が含まれる物体想定領域のスキャン方向の大きさを制限する。なお、ここで言う「物体想定領域」とは、エリア内計測点が得られる原因となった物体(すなわちレーザ光を反射した物体)が存在すると推定される領域を意味する。1つのエリア内計測点に基づく物体想定領域は、スキャン方向、スイング方向及びこれらに直交する奥行方向に大きさを有する領域であり、その大きさは、物体検知装置1の分解能等に応じて予め設定されている。物体検知装置1の分解能は、レーザセンサユニット2から遠ざかるほど低くなる。このため、例えば、レーザセンサユニット2からエリア内計測点までの距離が小さい場合には、物体想定領域のスキャン方向の大きさ(すなわち物体の推定形状)を小さくし、レーザセンサユニット2からエリア内計測点までの距離が大きい程、物体想定領域のスキャン方向の大きさを大きくする。本実施形態の物体検知装置1においては、エリア内計測点のスキャン方向に隣接するエリア外計測点が存在しない場合には、レーザセンサユニット2からエリア内計測点までの距離に応じて、当該エリア内計測点を基準とする物体想定領域の大きさが一義的に設定される。一方で、エリア内計測点のスキャン方向に隣接するエリア外計測点が存在する場合には、検索部3bによってエリア外計測点のスキャン方向の位置までに物体想定領域の大きさが制限される。また、検索部3bは、検索の結果、エリア内計測点に対して下方に隣接するエリア外計測点が存在する場合には、当該エリア内計測点が示す物体が浮遊していると判定する。
The
グループ化部3cは、エリア内計測点を基準とする物体想定領域同士が重なっているエリア内計測点同士をグループ化する。なお、グループ化部3cは、他のエリア内計測点を基準とする物体想定領域と自らを基準とする物体想定領域とが重なっていない単独のエリア内計測点についても、当該単独のエリア内計測点を1つのグループとする。変換部3dは、エリア内計測点を物体に変換する。このとき、変換部3dは、グループ化部3cで設定された1つのグループを1つの物体とし、物体想定領域が占める空間を物体が存在する空間とする。
The
ノイズ削除部3eは、変換部3dによって変換された物体のうち、含まれるエリア内計測点の数が予め設定された閾値(以下、構成計測点数閾値)以下であって、物体のスキャン方向の幅が予め設定された閾値(幅閾値)以下である場合あるいは物体が浮上していると判断した場合には、ノイズ成分(すなわち物体が検知対象物体でない)として当該物体を削除する。
The
物体合成部3fは、先に生成された物体と、後に生成された物体とを合成する。本実施形態の物体検知装置1においては、1スキャン動作(1フレームの一方側の端部から他方側の端部までレーザ光を連続的に走査する動作)ごとに、物体を生成する。物体合成部3fは、異なるスキャン動作にて得られた物体同士が重なっている場合には、これらの物体同士を合成して1つの物体とする。
The
判定部3gは、1フレーム分について物体の合成が完了しているか否かの判定を行う。物体情報付与部3hは、物体合成部3fで合成された物体に対して、ID番号や、大きさ等の物体情報を関連情報として付与する。出力部3iは、検出結果すなわち検知対象エリアに位置する検知対象物体と関連情報を、外部に対して出力する。
The
ユニット制御部4は、レーザセンサユニット2の制御を行う。例えば、ユニット制御部4は、必要に応じて信号処理部3とデータの受渡しを行い、当該データに基づいてレーザセンサユニット2の制御を行う。なお、信号処理部3及びユニット制御部4は、例えば、演算処理を行うためのCPU(Central Processing Unit)、データやソフトウェアを記憶するメモリ等を有するコンピュータによって具現化されている。
The
次に、このように構成された本実施形態の物体検知装置1の動作(物体検知方法)について、図2~図5のフローチャートを参照して説明する。なお、以下の説明では、ユニット制御部4の制御の下にレーザセンサユニット2が段階的にスイング動作を行いながら、繰り返しスキャン動作を行うものとする。
Next, the operation (object detection method) of the
最初に、ユニット制御部4によって、レーザセンサユニット2から射出されるレーザ光が1スキャン分移動される。この間、信号処理部3は、レーザセンサユニット2から入力される信号に基づいて、1スキャン分の計測点を取得する計測工程を行う(ステップS1)。なお、レーザセンサユニット2からは極座標で表される信号が出力されため、信号処理部3は、極座標を直交座標に変換する。
First, the
続いて、信号処理部3は、抽出部3aによって、ステップS1で取得した計測点からエリア内計測点を抽出する抽出工程を行う(ステップS2)。ここでは、抽出部3aは、ステップS1で取得した計測点の座標が、予め設定された検知対象エリア内に位置するか否かを判断する。そして、抽出部3aは、検知対象エリア内に座標が位置する計測点をエリア内計測点として抽出し、例えばスキャン方向に順に番号を付与して記憶する。
Subsequently, the signal processing unit 3 performs an extraction step of extracting the measurement points in the area from the measurement points acquired in step S1 by the
続いて、信号処理部3は、検索部3bによって、スキャン検索工程(ステップS3)及びスイング検索工程(ステップS4)を行う。スキャン検索工程では、検索部3bは、ステップS2で抽出された全てのエリア内計測点に対して、スキャン方向に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に基づく物体想定領域のスキャン方向の幅を制限する。
Subsequently, the signal processing unit 3 performs a scan search step (step S3) and a swing search step (step S4) by the
図3は、スキャン検索工程(ステップS3)において検索部3bが1つのエリア内計測点に対して行う処理を示すフローチャートである。この図に示すように、検索部3bは、まずN値を「0」にセットし(ステップS3a)、続いてN値を「N+1」にセットする(ステップS3b)。続いて、検索部3bは、N値がスキャン検索上限よりも小さいか否かを判断する(ステップS3c)。ここで、「スキャン検索上限」は、スキャン方向に隣接するエリア内計測点の連続する数が、確実に検知対象物体であると判断されるべき値に設定されている。本実施形態において、スキャン検索工程(ステップS3)は、雪片等のスキャン方向の幅寸法が小さな物体をノイズ成分として削除するために行うものである。このため、スキャン検索上限を設定しておくことにより、ノイズ成分として削除すべきでない大きさの物体によって得られたエリア内計測点に対して、不必要にスキャン検索工程を続けることを防止することができる。つまり、本実施形態では、信号処理部3は、予め設定された個数の範囲でエリア内計測点に対して隣接するエリア外計測点を探索し、検索範囲にエリア外計測点が存在しない場合には、対象とされたエリア内計測点に対するエリア外計測点の探索を終了する。
FIG. 3 is a flowchart showing a process performed by the
ステップS3cでN値がスキャン検索上限よりも小さい場合には、検索部3bは、プラススキャン方向においてN個隣りの計測点がエリア外計測点であるか否かの判断をする(ステップS3d)。そして、検索部3bは、N個隣りの計測点がエリア外計測点である場合、若しくは、ステップS3cでN値がスキャン検索上限よりも小さくないと判断した場合に、エリア内計測点を基準とする物体想定領域のプラススキャン方向のX距離(プラススキャン方向の大きさ)を算出する(ステップS3e)。例えば、検索部3bは、対象としているエリア内計測点のN個隣りの計測点がエリア外計測点である場合には、対象としているエリア内計測点から分解能に応じたプラススキャン方向(X方向)に直線状に延伸した位置までを上記X距離とする。つまり、検索部3bは、エリア外計測点に基づいて、物体想定領域(すなわちエリア内計測点が示す物体)のプラススキャン方向の大きさ(端部位置)を規定している。
When the N value is smaller than the scan search upper limit in step S3c, the
また、検索部3bは、ステップS3cでN値がスキャン検索上限よりも小さくないと判断した場合には、物体想定領域のプラススキャン方向のX距離を、分解能とスキャン検索上限数に応じた一定値に設定する。
Further, when the
また、検索部3bは、ステップS3dでプラススキャン方向においてN個隣りの計測点がエリア外計測点でないと判断した場合には、再びステップS3bに戻り、N値の数を1つ増やす。
If the
ステップS3eにて物体想定領域のプラススキャン方向のX距離が算出されると、次にマイナススキャン方向の検索に移る。検索部3bは、N値を「0」にセットし(ステップS3f)、続いてN値を「N+1」にセットする(ステップS3g)。続いて、検索部3bは、N値がスキャン検索上限よりも小さいか否かを判断する(ステップS3h)。
When the X distance in the plus scan direction of the assumed object area is calculated in step S3e, the search proceeds in the minus scan direction. The
ステップS3hでN値がスキャン検索上限よりも小さい場合には、検索部3bは、マイナススキャン方向においてN個隣りの計測点がエリア外計測点であるか否かの判断をする(ステップS3i)。そして、検索部3bは、N個隣りの計測点がエリア外計測点である場合、若しくは、ステップS3hでN値がスキャン検索上限よりも小さくないと判断した場合に、エリア内計測点を基準とする物体想定領域のマイナススキャン方向のX距離(マイナススキャン方向の大きさ)を算出する(ステップS3j)。例えば、検索部3bは、対象としているエリア内計測点のN個隣りの計測点がエリア外計測点である場合には、対象としているエリア内計測点から分解能に応じたマイナススキャン方向(X方向)に直線状に延伸した位置までを上記X距離とする。つまり、検索部3bは、エリア外計測点に基づいて、物体想定領域(すなわちエリア内計測点が示す物体)のマイナススキャン方向の大きさ(端部位置)を規定している。
When the N value is smaller than the scan search upper limit in step S3h, the
また、検索部3bは、ステップS3hでN値がスキャン検索上限よりも小さくないと判断した場合には、物体想定領域のマイナススキャン方向のX距離を、分解能とスキャン検索上限数に応じた一定値に設定する。
Further, when the
また、検索部3bは、ステップS3iでマイナススキャン方向においてN個隣りの計測点がエリア外計測点でないと判断した場合には、再びステップS3gに戻り、N値の数を1つ増やす。
If the
スイング検索工程では、検索部3bは、ステップS2で抽出された全てのエリア内計測点に対して、下方に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に基づく物体想定領域に対して浮上判定フラグを設定する。
In the swing search step, when the
図4は、スイング検索工程(ステップS4)において検索部3bが1つのエリア内計測点に対して行う処理を示すフローチャートである。この図に示すように、検索部3bは、まずN値を「0」にセットし(ステップS4a)、続いてN値を「N+1」にセットする(ステップS4b)。続いて、検索部3bは、N値がスイング検索上限よりも小さいか否かを判断する(ステップS4c)。ここで、「スイング検索上限」は、下方に隣接するエリア内計測点の連続する数が、確実に検知対象物体であると判断されるべき値に設定されている。本実施形態において、スイング検索工程(ステップS4)は、雪片等の浮遊する小さな物体をノイズ成分として削除するために行うものである。このため、スイング検索上限を設定しておくことにより、ノイズ成分として削除すべきでない大きさの浮遊物体(もしくは地面に載置された物体の水平方向に張り出した一部)によって得られたエリア内計測点に対して、不必要にスイング検索工程を続けることを防止することができる。
FIG. 4 is a flowchart showing a process performed by the
ステップS4cでN値がスイング検索上限よりも小さい場合には、検索部3bは、マイナススイング方向(下方)においてN個隣りの計測点が近接したエリア外計測点であるか否かの判断をする(ステップS4d)。また、ステップS4dで、マイナススイング方向(下方)においてN個隣りの計測点が遠方のエリア外計測点であるか否かの判断をする(ステップS4e)。そして、検索部3bは、N個隣りの計測点がエリア外計測点である場合、若しくは、ステップS4cでN値がスイング検索上限よりも小さくないと判断した場合に、スイング検索工程(ステップS4)の対象となっているエリア内計測点に対して浮上判定フラグを設定する(ステップS4f)。
When the N value is smaller than the swing search upper limit in step S4c, the
なお、本実施形態においては、マイナススイング方向でエリア外計測点が発見された場合には、浮上判定フラグを設定するのみであり、エリア外計測点を用いて物体の下端位置を規定しない。これは、踏切での障害物の検知や道路における車両の検知等の物体検知装置1の使用状況を鑑みると、下方向への物体の大きさを正確に知る必要性が低いためである。このように、エリア外計測点を用いて物体の下端位置を規定しないことによって、信号処理部3における処理負担を軽減することが可能となる。
In this embodiment, when an out-of-area measurement point is found in the minus swing direction, only the ascent determination flag is set, and the lower end position of the object is not specified by using the out-of-area measurement point. This is because it is not necessary to accurately know the size of the object in the downward direction in view of the usage status of the
また、検索部3bは、ステップS4cでマイナススイング方向においてN個隣りの計測点が近接したエリア外計測点でないと判断し、ステップS4dでマイナススイング方向においてN個隣りの計測点が遠方のエリア外計測点でないと判断した場合には、再びステップS4bに戻り、N値の数を1つ増やす。
Further, the
図2に戻り、信号処理部3は、スイング検索工程(ステップS4)が完了すると、グループ化部3cによって、グループ化工程(ステップS5)を行う。グループ化部3cは、エリア内計測点を基準とする物体想定領域同士が重なっているエリア内計測点同士をグループ化する。また、グループ化部3cは、他のエリア内計測点を基準とする物体想定領域と自らを基準とする物体想定領域とが重なっていない単独のエリア内計測点についても、当該単独のエリア内計測点を1つのグループとする。
Returning to FIG. 2, when the swing search step (step S4) is completed, the signal processing unit 3 performs the grouping step (step S5) by the
続いて、信号処理部3は、変換部3dによって、変換工程を行う(ステップS6)。変換部3dは、エリア内計測点を物体に変換する。変換部3dは、グループ化部3cで設定された1つのグループを1つの物体とし、物体想定領域が占める空間を物体が存在する空間とする。
Subsequently, the signal processing unit 3 performs a conversion step by the
続いて、信号処理部3は、ノイズ削除部3eによって、削除工程を行う(ステップS7)。図5は、削除工程(ステップS7)においてノイズ削除部3eがステップS6で変換された物体の1つに対して行う処理を示すフローチャートである。この図に示すように、ノイズ削除部3eは、物体を構成するエリア内計測点が予め設定された構成点数閾値以下であるか否かの判断を行う(ステップS7a)。
Subsequently, the signal processing unit 3 performs a deletion step by the
ノイズ削除部3eは、ステップS7aで物体を構成するエリア内計測点が構成点数閾値以下でないと判断した場合には、対象となっている物体を削除することなく、当該物体に対する削除工程(ステップS7)を終了する。一方で、ノイズ削除部3eは、ステップS7aで物体を構成するエリア内計測点が構成点数閾値以下であると判断した場合には、物体のX幅(スキャン方向の幅寸法)が予め設定された幅閾値以下であるか否かの判断を行う(ステップS7b)。また、ノイズ削除部3eは、ステップS7bで物体のX幅が幅閾値以下でないと判断した場合には、物体を構成するエリア内計測点に対して浮上判定フラグが設定されているか否かの判断を行う(ステップS7c)。なお、ノイズ削除部3eは、例えば物体を構成するエリア内計測点が複数存在する場合には、当該物体を構成するエリア内計測点の全てに対して浮上判定フラグが設定されている場合に、ステップS7cにおいて、物体を構成するエリア内計測点に対して浮上判定フラグが設定されていると判断する。
When the
そして、ノイズ削除部3eは、ステップS7bで物体のX幅が幅閾値以下であると判断した場合、若しくは、ステップS7cで物体を構成するエリア内計測点に対して浮上判定フラグが設定されていると判断した場合には、物体をノイズ成分(すなわち検知対象物体でない物体)として削除する。なお、ノイズ削除部3eは、ステップS7bで物体のX幅が幅閾値以下でないと判断し、さらにステップS7cで物体を構成するエリア内計測点に対して浮上判定フラグが設定されていないと判断した場合には、対象となっている物体を削除することなく、当該物体に対する削除工程(ステップS7)を終了する。
Then, when the
図2に戻り、信号処理部3は、削除工程(ステップS5)が完了すると、物体合成部3fによって、物体合成工程(ステップS8)を行う。物体合成部3fは、本スキャン動作で生成された物体と、他のスキャン動作で生成された物体とが重なっている場合に、これらの物体を合成して1つの物体とする。
Returning to FIG. 2, when the deletion step (step S5) is completed, the signal processing unit 3 performs the object synthesis step (step S8) by the
続いて、信号処理部3は、判定部3gによって、1フレーム分の物体の合成が全て完了しているか否かの判定を行う(ステップS9)。判定部3gによって1フレーム分の物体の合成が全て完了していないと判定された場合には、測定用のレーザ光の射出方向がマイナススイング方向に変化され、信号処理部3は、再びステップS1に戻る。
Subsequently, the signal processing unit 3 determines whether or not all the synthesis of the objects for one frame is completed by the
ステップS9で1フレーム分の物体の合成が全て完了していると判定された場合には、信号処理部3は、物体情報付与部3hによって合成された物体に対して、ID番号や、大きさ等の物体情報を関連情報として付与し(ステップS10)、出力部3iによって検出結果すなわち検知対象エリアに位置する検知対象物体とその関連情報を、外部に対して出力する(ステップS11)。
When it is determined in step S9 that all the synthesis of the objects for one frame is completed, the signal processing unit 3 has an ID number and a size with respect to the objects synthesized by the object
以上のような本実施形態の物体検知装置1及び物体検知方法によれば、従来の物体検知装置及び物体検知方法において用いられていた検知対象エリア内の計測点(エリア内計測点)だけでなく、検知対象エリアの外の計測点(エリア外計測点)も用いて、エリア内計測点が示す物体の大きさを規定する。例えば、図6に示すように、エリア外計測点を挟むように位置する2つのエリア内計測点の各々が示す物体(物体1及び物体2)は、別の物体として検知可能であることが好ましい。ここで、本実施形態の物体検知装置1及び物体検知方法によれば、エリア外計測点を用いることによって、物体の大きさをより正確に規定するため、物体の大きさの検出精度を向上させることができ、物体1と物体2とを別の物体として検知することができる。したがって、本実施形態の物体検知装置1及び物体検知方法によれば、例えば雪片、雨粒及び木の葉等をより正確に1つ1つが障害物とならない小さな物体であると認知することができ、誤検知をより確実に防止することが可能となる。
According to the
また、本実施形態の物体検知装置1においては、信号処理部3が、エリア内計測点の側方に隣接するエリア外計測点に基づいてエリア内計測点が示す物体の水平方向の幅寸法を求めている。このため、本実施形態の物体検知装置1によれば、正確に物体の水平方向の幅寸法を求めることが可能となる。
Further, in the
また、本実施形態の物体検知装置1においては、信号処理部3が、予め設定された個数の範囲でエリア内計測点に対して隣接するエリア外計測点を探索し、検索範囲にエリア外計測点が存在しない場合には、エリア内計測点に対するエリア外計測点の探索を終了している。このため、ノイズ成分として削除すべきでない大きさの物体によって得られたエリア内計測点に対して、不必要にスキャン検索工程を続けることを防止することができ、信号処理部3の処理負担を低減することができる。
Further, in the
また、本実施形態の物体検知装置1においては、エリア内計測点に対して側方にエリア外計測点が存在する場合に、物体の水平方向の端部位置をエリア外計測点に基づいて規定している。一方で、本実施形態の物体検知装置1においては、エリア内計測点に対して下方にエリア外計測点が存在する場合には、浮上判定フラグを設定するのみで、物体の下方の端部位置をエリア外計測点に基づいて規定していない。上述のように、下方向への物体の大きさを正確に知る必要性が低いため、エリア外計測点を用いて物体の下端位置を規定しないことによって、信号処理部3における処理負担を軽減することが可能となる。
Further, in the
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は、上記実施形態に限定されないことは言うまでもない。上述した実施形態において示した各構成部材の諸形状や組み合わせ等は一例であって、本発明の趣旨から逸脱しない範囲において設計要求等に基づき種々変更可能である。 Although the preferred embodiment of the present invention has been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to the above embodiment. The various shapes and combinations of the constituent members shown in the above-described embodiment are examples, and can be variously changed based on design requirements and the like without departing from the spirit of the present invention.
例えば、エリア外計測点に基づいて、物体の水平方向の幅寸法を規定する構成について説明した。しかしながら、本発明はこれに限定されるものではない。例えば、エリア内計測点の上方にエリア外計測点が存在する場合には、当該エリア外計測点を用いて物体の上端位置を規定することも可能である。また、一般的に物体検知装置1は、検知対象エリアの上方に配置されているため、物体の奥行方向の形状も検出することが可能である。このため、例えば、エリア内計測点の上方にエリア外計測点が存在する場合には、当該エリア外計測点を用いて物体の奥行方向の端部位置を規定することも可能である。
For example, a configuration that defines the horizontal width dimension of an object based on an out-of-area measurement point has been described. However, the present invention is not limited to this. For example, when an out-of-area measurement point exists above the in-area measurement point, it is also possible to specify the upper end position of the object by using the out-of-area measurement point. Further, since the
また、上記実施形態においては、ノイズ成分を除去する構成について説明した。しかしながら、本発明はこれに限定されるものではない。例えば、物体の形状のみを正確に求める物体検知装置に適用することも可能である。 Further, in the above embodiment, the configuration for removing the noise component has been described. However, the present invention is not limited to this. For example, it can be applied to an object detection device that accurately obtains only the shape of an object.
1……物体検知装置
2……レーザセンサユニット
3……信号処理部
3a……抽出部
3b……検索部
3c……グループ化部
3d……変換部
3e……ノイズ削除部
3f……物体合成部
3g……判定部
3h……物体情報付与部
3i……出力部
4……ユニット制御部
1 ……
Claims (1)
前記信号処理部は、予め設定された検知対象エリアに位置するエリア内計測点を抽出し、前記エリア内計測点に隣接すると共に前記検知対象エリアの外に位置するエリア外計測点に基づいて、前記エリア内計測点が示す物体の大きさを規定し、
前記信号処理部は、少なくとも側方及び上方のいずれかの方向に前記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に前記エリア外計測点が隣接する方向における前記エリア内計測点が示す物体の端部位置を前記エリア外計測点に基づいて規定し、下方に前記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に前記エリア外計測点が隣接する方向における前記エリア内計測点が示す物体の端部位置を前記エリア外計測点に基づいて規定しない
ことを特徴とする物体検知装置。 A laser sensor unit that emits a laser beam for measurement and can change the emission direction, receives the reflected light of the laser beam and outputs it as an electric signal, and detects an object based on the output signal of the laser sensor unit. An object detection device equipped with a signal processing unit to perform
The signal processing unit extracts the measurement points in the area located in the preset detection target area, and based on the measurement points outside the area adjacent to the measurement points in the area and located outside the detection target area, the signal processing unit extracts the measurement points in the area. The size of the object indicated by the measurement point in the area is specified.
When the signal processing unit has an out-of-area measurement point adjacent to the in-area measurement point in at least one of the lateral and upper directions, the direction in which the out-of-area measurement point is adjacent to the in-area measurement point. The end position of the object indicated by the measurement point in the area in the above area is defined based on the measurement point outside the area, and when the measurement point outside the area adjacent to the measurement point in the area exists below, the measurement point in the area is defined. An object detection device characterized in that the end position of an object indicated by the in-area measurement point in a direction adjacent to the out-of-area measurement point is not specified based on the out-of-area measurement point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017210136A JP7073673B2 (en) | 2017-10-31 | 2017-10-31 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017210136A JP7073673B2 (en) | 2017-10-31 | 2017-10-31 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019082411A JP2019082411A (en) | 2019-05-30 |
JP7073673B2 true JP7073673B2 (en) | 2022-05-24 |
Family
ID=66670327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017210136A Active JP7073673B2 (en) | 2017-10-31 | 2017-10-31 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7073673B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004272841A (en) | 2003-03-12 | 2004-09-30 | Omron Corp | Object discriminating apparatus |
JP2005212553A (en) | 2004-01-28 | 2005-08-11 | East Japan Railway Co | Detecting device and detecting method |
JP2009288055A (en) | 2008-05-29 | 2009-12-10 | Ishikawajima Transport Machinery Co Ltd | Method of calculating position information of object |
JP2011043330A (en) | 2009-08-19 | 2011-03-03 | Ihi Corp | Method and device for obstacle detection |
JP2014196962A (en) | 2013-03-29 | 2014-10-16 | 日本信号株式会社 | Object detection system |
US20160339959A1 (en) | 2015-05-21 | 2016-11-24 | Lg Electronics Inc. | Driver Assistance Apparatus And Control Method For The Same |
-
2017
- 2017-10-31 JP JP2017210136A patent/JP7073673B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004272841A (en) | 2003-03-12 | 2004-09-30 | Omron Corp | Object discriminating apparatus |
JP2005212553A (en) | 2004-01-28 | 2005-08-11 | East Japan Railway Co | Detecting device and detecting method |
JP2009288055A (en) | 2008-05-29 | 2009-12-10 | Ishikawajima Transport Machinery Co Ltd | Method of calculating position information of object |
JP2011043330A (en) | 2009-08-19 | 2011-03-03 | Ihi Corp | Method and device for obstacle detection |
JP2014196962A (en) | 2013-03-29 | 2014-10-16 | 日本信号株式会社 | Object detection system |
US20160339959A1 (en) | 2015-05-21 | 2016-11-24 | Lg Electronics Inc. | Driver Assistance Apparatus And Control Method For The Same |
Also Published As
Publication number | Publication date |
---|---|
JP2019082411A (en) | 2019-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5531474B2 (en) | Map generation device, runway estimation device, movable region estimation device, and program | |
KR102062680B1 (en) | Laser point cloud based urban road recognition method, device, storage medium and device | |
CN108271408B (en) | Generating three-dimensional maps of scenes using passive and active measurements | |
JP5407898B2 (en) | Object detection apparatus and program | |
JP4650079B2 (en) | Object detection apparatus and method | |
US9316730B2 (en) | Monitoring device and monitoring method | |
JP6505470B2 (en) | Noise removal method and object recognition apparatus | |
EP3851872A1 (en) | Object detection on a path of travel and obstacle detection on railway tracks using free space information | |
JP7046218B2 (en) | Information processing equipment, information processing methods and programs | |
US10134304B1 (en) | Scanning obstacle sensor for the visually impaired | |
JP5894201B2 (en) | Boundary line recognition device | |
JP6996179B2 (en) | Object detection device and object detection method | |
JP2024022650A (en) | Information processing device, control method, program, and storage medium | |
Yalcin et al. | Approaches of road boundary and obstacle detection using LIDAR | |
JP6923750B2 (en) | Self-position estimation device, self-position estimation method, program and storage medium | |
JP2012203884A (en) | Jumping-out pedestrian determining device and program | |
JPWO2018180245A1 (en) | Output device, control method, program and storage medium | |
JP7073673B2 (en) | Object detection device | |
JP6900214B2 (en) | Obstacle detection device and obstacle detection method | |
JP5765163B2 (en) | Self-position estimation apparatus, method, and program | |
CN103824082A (en) | Pedestrian detection method and detection system thereof | |
WO2022030033A1 (en) | Planimetric feature data generation system, planimetric feature database updating system, and planimetric feature data generation method | |
JP7517675B2 (en) | Map data generating device, map data generating method, and program | |
JP2016045015A (en) | Road curvature detection device | |
JP2019168985A (en) | Control device, control method, program and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7073673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |