JP7073673B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP7073673B2
JP7073673B2 JP2017210136A JP2017210136A JP7073673B2 JP 7073673 B2 JP7073673 B2 JP 7073673B2 JP 2017210136 A JP2017210136 A JP 2017210136A JP 2017210136 A JP2017210136 A JP 2017210136A JP 7073673 B2 JP7073673 B2 JP 7073673B2
Authority
JP
Japan
Prior art keywords
area
measurement point
unit
measurement points
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017210136A
Other languages
Japanese (ja)
Other versions
JP2019082411A (en
Inventor
芳紀 瀬川
亮 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2017210136A priority Critical patent/JP7073673B2/en
Publication of JP2019082411A publication Critical patent/JP2019082411A/en
Application granted granted Critical
Publication of JP7073673B2 publication Critical patent/JP7073673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体検知装置及び物体検知方法に関するものである。 The present invention relates to an object detection device and an object detection method.

従来から、車道や踏切等の様々な場所においては、レーザセンサユニットを用いた物体検知装置が用いられている。例えば車道においては、車両の有無を物体検知装置で検知し、計測結果の時系列的な変化から渋滞状況の把握が行われている。また踏切においては、踏切内の障害物の有無を物体検知装置で検知し、電車走行の安全性の確認が行われている。このような物体検知装置では、レーザセンサユニットから照射した計測用レーザ光の反射光を受光して計測用レーザ光の反射位置(計測点)を検出し、この計測点が予め設定された検知対象エリアに位置しているか否かに基づいて物体の検知を行っている(例えば特許文献1参照)。 Conventionally, an object detection device using a laser sensor unit has been used in various places such as a roadway and a railroad crossing. For example, on a roadway, the presence or absence of a vehicle is detected by an object detection device, and the traffic jam situation is grasped from the time-series change of the measurement result. At railroad crossings, the presence or absence of obstacles in the railroad crossing is detected by an object detection device, and the safety of train running is confirmed. In such an object detection device, the reflected light of the measurement laser light emitted from the laser sensor unit is received to detect the reflection position (measurement point) of the measurement laser light, and this measurement point is a preset detection target. An object is detected based on whether or not it is located in an area (see, for example, Patent Document 1).

特開2002-140790号公報Japanese Unexamined Patent Publication No. 2002-140790

ところで、上述のような物体検知装置においては、検知対象エリア内の近接した領域に複数の計測点が連続して配列されている場合には、これらの複数の計測点が1つの物体であると推定して物体の凡その大きさを求めている。しかしながら、車両等が接近して計測された場合や、雪片や落ち葉等が検知対象エリアで舞っている場合には、異なる物体等でレーザ光が反射して得られた複数の計測点を1つの物体として認識し、大きな物体が検知対象エリア内に存在するとご認識する恐れがある。このため、物体検知装置において、物体の大きさをより正確に検出可能とすることが望まれている。 By the way, in the above-mentioned object detection device, when a plurality of measurement points are continuously arranged in a close area in a detection target area, it is considered that these the plurality of measurement points are one object. It is estimated and the approximate size of the object is obtained. However, when a vehicle or the like is measured in close proximity, or when snowflakes or fallen leaves are flying in the detection target area, a plurality of measurement points obtained by reflecting the laser beam on different objects or the like are combined into one. There is a risk of recognizing it as an object and recognizing that a large object exists in the detection target area. Therefore, it is desired that the object detection device can detect the size of the object more accurately.

本発明は、上述する問題点に鑑みてなされたもので、物体検知装置及び物体検知方法において、物体の大きさの検出精度を向上させることを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to improve the detection accuracy of the size of an object in an object detection device and an object detection method.

本発明は、上記課題を解決するための手段として、以下の構成を採用する。 The present invention adopts the following configuration as a means for solving the above problems.

第1の発明は、計測用のレーザ光を射出かつ射出方向を変更可能であると共に上記レーザ光の反射光を受光して電気信号として出力するレーザセンサユニットと、上記レーザセンサユニットの出力信号に基づいて物体の検知を行う信号処理部とを備える物体検知装置であって、上記信号処理部が、予め設定された検知対象エリアに位置するエリア内計測点を抽出し、上記エリア内計測点に隣接すると共に上記検知対象エリアの外に位置するエリア外計測点に基づいて、上記エリア内計測点が示す物体の大きさを規定するという構成を採用する。 The first invention comprises a laser sensor unit that emits a laser beam for measurement and can change the emission direction, receives the reflected light of the laser beam and outputs it as an electric signal, and an output signal of the laser sensor unit. It is an object detection device including a signal processing unit that detects an object based on the above, and the signal processing unit extracts measurement points in an area located in a preset detection target area and uses them as measurement points in the area. A configuration is adopted in which the size of the object indicated by the measurement points in the area is specified based on the measurement points outside the area that are adjacent to each other and located outside the detection target area.

第2の発明は、上記第1の発明において、上記信号処理部が、上記エリア内計測点の側方に隣接するエリア外計測点に基づいて上記エリア内計測点が示す物体の水平方向の幅寸法を求めるという構成を採用する。 In the second invention, in the first invention, the signal processing unit has a horizontal width of an object indicated by the measurement point in the area based on the measurement point outside the area adjacent to the side of the measurement point in the area. Adopt the configuration of finding the dimensions.

第3の発明は、上記第1または第2の発明において、上記信号処理部が、予め設定された個数の範囲で上記エリア内計測点に対して隣接する計測点を探索し、検索範囲に上記エリア外計測点が存在しない場合には、当該エリア内計測点に対するエリア外計測点の探索を終了するという構成を採用する。 In the third aspect of the invention, in the first or second invention, the signal processing unit searches for measurement points adjacent to the measurement points in the area within a preset number range, and the search range is set to the above. If the out-of-area measurement point does not exist, the configuration of ending the search for the out-of-area measurement point for the in-area measurement point is adopted.

第4の発明は、上記第1~第3いずれかの発明において、上記信号処理部が、少なくとも側方及び上方のいずれかの方向に上記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に上記エリア外計測点が隣接する方向における上記エリア内計測点が示す物体の端部位置を上記エリア外計測点に基づいて規定し、下方に上記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に上記エリア外計測点が隣接する方向における上記エリア内計測点が示す物体の端部位置を上記エリア外計測点に基づいて規定しないという構成を採用する。 In the fourth aspect of the invention, in any of the first to third inventions, the signal processing unit has an out-of-area measurement point adjacent to the in-area measurement point at least in either the lateral or upward direction. In this case, the end position of the object indicated by the measurement point in the area in the direction in which the measurement point outside the area is adjacent to the measurement point in the area is defined based on the measurement point outside the area, and the measurement point in the area is lowered below. When there is an out-of-area measurement point adjacent to the area, the end position of the object indicated by the in-area measurement point in the direction in which the out-of-area measurement point is adjacent to the in-area measurement point is determined based on the out-of-area measurement point. Adopt a configuration that does not specify.

第5の発明は、計測用のレーザ光を射出かつ射出方向を変更可能であると共に上記レーザ光の反射光を受光して電気信号として出力するレーザセンサユニットを用いた物体検知方法であって、予め設定された検知対象エリアに位置するエリア内計測点を抽出し、上記エリア内計測点に隣接すると共に上記検知対象エリアの外に位置するエリア外計測点に基づいて、上記エリア内計測点が示す物体の大きさを規定するという構成を採用する。 A fifth invention is an object detection method using a laser sensor unit that can emit a laser beam for measurement and change the emission direction, and also receives the reflected light of the laser beam and outputs it as an electric signal. The measurement points in the area located in the preset detection target area are extracted, and the measurement points in the area are set based on the measurement points outside the area that are adjacent to the measurement points in the area and located outside the detection target area. Adopt a configuration that defines the size of the object to be shown.

本発明によれば、従来の物体検知装置及び物体検知方法において用いられていた検知対象エリア内の計測点(エリア内計測点)だけでなく、検知対象エリアの外の計測点(エリア外計測点)も用いて、エリア内計測点が示す物体の大きさを規定する。エリア外計測点を挟むように位置する2つのエリア内計測点の各々が示す物体は、別の物体である可能性がある。本発明によれば、このようなエリア外計測点を用いることによって、物体の大きさをより正確に規定するため、物体の大きさの検出精度を向上させることができる。したがって、本発明によれば、例えば接近した複数の車両、歩行者を別々の物体と認知することでエリア内に存在する物体の数をより正確に算出することができる。また雪片、雨粒及び木の葉等をより正確に1つ1つが障害物とならない小さな物体であると認知することができ、誤検知をより確実に防止することが可能となる。 According to the present invention, not only the measurement points in the detection target area (measurement points in the area) used in the conventional object detection device and the object detection method, but also the measurement points outside the detection target area (measurement points outside the area). ) Is also used to specify the size of the object indicated by the measurement point in the area. The object indicated by each of the two in-area measurement points located so as to sandwich the out-of-area measurement point may be another object. According to the present invention, by using such an out-of-area measurement point, the size of the object is defined more accurately, so that the detection accuracy of the size of the object can be improved. Therefore, according to the present invention, for example, by recognizing a plurality of approaching vehicles and pedestrians as separate objects, the number of objects existing in the area can be calculated more accurately. In addition, snowflakes, raindrops, leaves, etc. can be more accurately recognized as small objects that do not become obstacles, and false detection can be prevented more reliably.

本発明の一実施形態における物体検知装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the object detection apparatus in one Embodiment of this invention. 本発明の一実施形態における物体検知装置による物体検知方法を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection method by the object detection apparatus in one Embodiment of this invention. 本発明の一実施形態における物体検知装置によるスキャン検索工程において検索部が1つのエリア内計測点に対して行う処理を示すフローチャートである。It is a flowchart which shows the process which the search unit performs with respect to the measurement point in one area in the scan search process by the object detection apparatus in one Embodiment of this invention. 本発明の一実施形態における物体検知装置によるスイング検索工程において検索部が1つのエリア内計測点に対して行う処理を示すフローチャートである。It is a flowchart which shows the process which the search unit performs with respect to the measurement point in one area in the swing search process by the object detection apparatus in one Embodiment of this invention. 本発明の一実施形態における物体検知装置による削除工程において検索部が1つの物体に対して行う処理を示すフローチャートである。It is a flowchart which shows the process which the search unit performs on one object in the deletion process by the object detection apparatus in one Embodiment of this invention. 本発明の一実施形態における物体検知装置及び物体検知方法の作用を説明するための模式図である。It is a schematic diagram for demonstrating the operation of the object detection apparatus and the object detection method in one Embodiment of this invention.

以下、図面を参照して、本発明に係る物体検知装置及び物体検知方法の一実施形態について説明する。なお、以下の図面において、各部材を認識可能な大きさとするために、各部材の縮尺を適宜変更している。 Hereinafter, an embodiment of the object detection device and the object detection method according to the present invention will be described with reference to the drawings. In the following drawings, the scale of each member is appropriately changed in order to make each member recognizable.

図1は、本実施形態の物体検知装置1の概略構成を示すブロック図である。この図に示すように、本実施形態の物体検知装置1は、レーザセンサユニット2と、信号処理部3と、ユニット制御部4とを備えている。 FIG. 1 is a block diagram showing a schematic configuration of the object detection device 1 of the present embodiment. As shown in this figure, the object detection device 1 of the present embodiment includes a laser sensor unit 2, a signal processing unit 3, and a unit control unit 4.

レーザセンサユニット2は、計測用のレーザ光を射出かつ射出方向を変更可能であると共にレーザ光の反射光を受光して電気信号として出力する。このレーザセンサユニット2は、特に構造が限定されるものではないが、例えば、レーザ光を射出する光源、光源から射出されたレーザ光を水平方向に走査するポリゴンミラー等のスキャン機構、ポリゴンミラーごと傾斜させることによりレーザ光を上下方向に振るスイング機構、及び、レーザ光の反射光を受光して電気信号に変換して出力する受光部等を備えている。このようなレーザセンサユニット2は、1フレームの計測データを得るために、ユニット制御部4の制御の下、レーザ光を左右方向(以下、スキャン方向)の一方の端部から他方の端部までに連続的に走査するスキャン動作を、スイング角度(上下方向の角度)を段階的に変化させる都度行う。 The laser sensor unit 2 emits a laser beam for measurement and can change the emission direction, and also receives the reflected light of the laser beam and outputs it as an electric signal. The structure of the laser sensor unit 2 is not particularly limited, but for example, a light source that emits laser light, a scanning mechanism such as a polygon mirror that horizontally scans the laser light emitted from the light source, and each polygon mirror. It is provided with a swing mechanism that swings the laser beam in the vertical direction by inclining it, and a light receiving unit that receives the reflected light of the laser beam, converts it into an electric signal, and outputs it. In order to obtain measurement data of one frame, such a laser sensor unit 2 directs laser light from one end in the left-right direction (hereinafter, scanning direction) to the other end under the control of the unit control unit 4. The scanning operation of continuously scanning is performed each time the swing angle (vertical angle) is changed stepwise.

信号処理部3は、レーザセンサユニット2の出力信号に基づいて、レーザ光が反射した位置(計測点)を抽出し、計測点に基づいて予め設定された検知対象エリアに検知対象物体が位置しているか否かの結果を出力する。このような信号処理部3は、図1に示すように、抽出部3a、検索部3b、グループ化部3c、変換部3d、ノイズ削除部3e、物体合成部3f、判定部3g、物体情報付与部3h、出力部3i等の機能部を有している。 The signal processing unit 3 extracts the position (measurement point) where the laser beam is reflected based on the output signal of the laser sensor unit 2, and the detection target object is located in the detection target area set in advance based on the measurement point. Outputs the result of whether or not it is. As shown in FIG. 1, such a signal processing unit 3 includes an extraction unit 3a, a search unit 3b, a grouping unit 3c, a conversion unit 3d, a noise deletion unit 3e, an object synthesis unit 3f, a determination unit 3g, and an object information addition unit. It has functional units such as a unit 3h and an output unit 3i.

本実施形態の物体検知装置1は、計測用のレーザ光にて計測可能な空間のうち、予め設定された一部空間を検知対象エリアとし、この検知対象エリア内に検知対象物体が存在するか否かを検出結果として出力する。抽出部3aは、レーザ光の射出方向を変更して得られる複数の計測点のうち、検知対象エリアに位置する計測点(以下、エリア内計測点と称する)の抽出を行う。 In the object detection device 1 of the present embodiment, a part of the space that can be measured by the laser beam for measurement is set as a detection target area, and whether the detection target object exists in this detection target area. Whether or not it is output as a detection result. The extraction unit 3a extracts the measurement points (hereinafter, referred to as in-area measurement points) located in the detection target area from the plurality of measurement points obtained by changing the emission direction of the laser beam.

検索部3bは、検知対象エリアの外部に位置する計測点(以下、エリア外計測点と称する)であって、エリア内計測点に対してスキャン方向あるいはスイング方向に隣接するものを検索する。また、検索部3bは、検索の結果、エリア内計測点に対してスキャン方向に隣接するエリア外計測点が存在する場合には、当該エリア外計測点に基づいて、エリア内計測点が含まれる物体想定領域のスキャン方向の大きさを制限する。なお、ここで言う「物体想定領域」とは、エリア内計測点が得られる原因となった物体(すなわちレーザ光を反射した物体)が存在すると推定される領域を意味する。1つのエリア内計測点に基づく物体想定領域は、スキャン方向、スイング方向及びこれらに直交する奥行方向に大きさを有する領域であり、その大きさは、物体検知装置1の分解能等に応じて予め設定されている。物体検知装置1の分解能は、レーザセンサユニット2から遠ざかるほど低くなる。このため、例えば、レーザセンサユニット2からエリア内計測点までの距離が小さい場合には、物体想定領域のスキャン方向の大きさ(すなわち物体の推定形状)を小さくし、レーザセンサユニット2からエリア内計測点までの距離が大きい程、物体想定領域のスキャン方向の大きさを大きくする。本実施形態の物体検知装置1においては、エリア内計測点のスキャン方向に隣接するエリア外計測点が存在しない場合には、レーザセンサユニット2からエリア内計測点までの距離に応じて、当該エリア内計測点を基準とする物体想定領域の大きさが一義的に設定される。一方で、エリア内計測点のスキャン方向に隣接するエリア外計測点が存在する場合には、検索部3bによってエリア外計測点のスキャン方向の位置までに物体想定領域の大きさが制限される。また、検索部3bは、検索の結果、エリア内計測点に対して下方に隣接するエリア外計測点が存在する場合には、当該エリア内計測点が示す物体が浮遊していると判定する。 The search unit 3b searches for measurement points located outside the detection target area (hereinafter referred to as out-of-area measurement points) that are adjacent to the in-area measurement points in the scan direction or the swing direction. If, as a result of the search, there is an out-of-area measurement point adjacent to the in-area measurement point in the scanning direction, the search unit 3b includes the in-area measurement point based on the out-of-area measurement point. Limit the size of the assumed object area in the scanning direction. The "object assumption area" referred to here means an area in which it is presumed that an object (that is, an object that reflects laser light) that caused the measurement point in the area to be obtained exists. The object assumption area based on the measurement points in one area is an area having a size in the scan direction, the swing direction, and the depth direction orthogonal to these, and the size is predetermined according to the resolution of the object detection device 1 and the like. It is set. The resolution of the object detection device 1 decreases as the distance from the laser sensor unit 2 increases. Therefore, for example, when the distance from the laser sensor unit 2 to the measurement point in the area is small, the size of the object assumed area in the scanning direction (that is, the estimated shape of the object) is reduced, and the laser sensor unit 2 is in the area. The larger the distance to the measurement point, the larger the size of the assumed object area in the scanning direction. In the object detection device 1 of the present embodiment, when there is no measurement point outside the area adjacent to the measurement point in the area in the scanning direction, the area concerned is determined according to the distance from the laser sensor unit 2 to the measurement point in the area. The size of the assumed object area with respect to the internal measurement point is uniquely set. On the other hand, when there is an out-of-area measurement point adjacent to the in-area measurement point in the scan direction, the search unit 3b limits the size of the object assumed area to the position of the out-of-area measurement point in the scan direction. Further, as a result of the search, when the measurement point outside the area adjacent to the measurement point in the area exists, the search unit 3b determines that the object indicated by the measurement point in the area is floating.

グループ化部3cは、エリア内計測点を基準とする物体想定領域同士が重なっているエリア内計測点同士をグループ化する。なお、グループ化部3cは、他のエリア内計測点を基準とする物体想定領域と自らを基準とする物体想定領域とが重なっていない単独のエリア内計測点についても、当該単独のエリア内計測点を1つのグループとする。変換部3dは、エリア内計測点を物体に変換する。このとき、変換部3dは、グループ化部3cで設定された1つのグループを1つの物体とし、物体想定領域が占める空間を物体が存在する空間とする。 The grouping unit 3c groups the measurement points in the area where the assumed object areas based on the measurement points in the area overlap each other. In addition, the grouping unit 3c also measures the measurement points in a single area where the object assumption area based on another measurement point in the area and the object assumption area based on itself do not overlap. Let the points be one group. The conversion unit 3d converts the measurement points in the area into an object. At this time, the conversion unit 3d sets one group set by the grouping unit 3c as one object, and the space occupied by the object assumption area is the space where the object exists.

ノイズ削除部3eは、変換部3dによって変換された物体のうち、含まれるエリア内計測点の数が予め設定された閾値(以下、構成計測点数閾値)以下であって、物体のスキャン方向の幅が予め設定された閾値(幅閾値)以下である場合あるいは物体が浮上していると判断した場合には、ノイズ成分(すなわち物体が検知対象物体でない)として当該物体を削除する。 The noise removing unit 3e has a width in the scanning direction of the object in which the number of measurement points in the area included in the object converted by the conversion unit 3d is equal to or less than a preset threshold value (hereinafter referred to as a constituent measurement point number threshold value). Is equal to or less than a preset threshold value (width threshold value), or when it is determined that the object is floating, the object is deleted as a noise component (that is, the object is not the object to be detected).

物体合成部3fは、先に生成された物体と、後に生成された物体とを合成する。本実施形態の物体検知装置1においては、1スキャン動作(1フレームの一方側の端部から他方側の端部までレーザ光を連続的に走査する動作)ごとに、物体を生成する。物体合成部3fは、異なるスキャン動作にて得られた物体同士が重なっている場合には、これらの物体同士を合成して1つの物体とする。 The object synthesizing unit 3f synthesizes the previously generated object and the later generated object. In the object detection device 1 of the present embodiment, an object is generated for each scan operation (operation of continuously scanning the laser beam from one end of one frame to the other end). When the objects obtained by different scanning operations overlap each other, the object synthesizing unit 3f synthesizes these objects into one object.

判定部3gは、1フレーム分について物体の合成が完了しているか否かの判定を行う。物体情報付与部3hは、物体合成部3fで合成された物体に対して、ID番号や、大きさ等の物体情報を関連情報として付与する。出力部3iは、検出結果すなわち検知対象エリアに位置する検知対象物体と関連情報を、外部に対して出力する。 The determination unit 3g determines whether or not the synthesis of the object is completed for one frame. The object information adding unit 3h assigns object information such as an ID number and a size to the object synthesized by the object synthesizing unit 3f as related information. The output unit 3i outputs the detection result, that is, the detection target object located in the detection target area and the related information to the outside.

ユニット制御部4は、レーザセンサユニット2の制御を行う。例えば、ユニット制御部4は、必要に応じて信号処理部3とデータの受渡しを行い、当該データに基づいてレーザセンサユニット2の制御を行う。なお、信号処理部3及びユニット制御部4は、例えば、演算処理を行うためのCPU(Central Processing Unit)、データやソフトウェアを記憶するメモリ等を有するコンピュータによって具現化されている。 The unit control unit 4 controls the laser sensor unit 2. For example, the unit control unit 4 exchanges data with the signal processing unit 3 as necessary, and controls the laser sensor unit 2 based on the data. The signal processing unit 3 and the unit control unit 4 are embodied by, for example, a computer having a CPU (Central Processing Unit) for performing arithmetic processing, a memory for storing data and software, and the like.

次に、このように構成された本実施形態の物体検知装置1の動作(物体検知方法)について、図2~図5のフローチャートを参照して説明する。なお、以下の説明では、ユニット制御部4の制御の下にレーザセンサユニット2が段階的にスイング動作を行いながら、繰り返しスキャン動作を行うものとする。 Next, the operation (object detection method) of the object detection device 1 of the present embodiment configured as described above will be described with reference to the flowcharts of FIGS. 2 to 5. In the following description, it is assumed that the laser sensor unit 2 repeatedly performs a scan operation while performing a stepwise swing operation under the control of the unit control unit 4.

最初に、ユニット制御部4によって、レーザセンサユニット2から射出されるレーザ光が1スキャン分移動される。この間、信号処理部3は、レーザセンサユニット2から入力される信号に基づいて、1スキャン分の計測点を取得する計測工程を行う(ステップS1)。なお、レーザセンサユニット2からは極座標で表される信号が出力されため、信号処理部3は、極座標を直交座標に変換する。 First, the unit control unit 4 moves the laser beam emitted from the laser sensor unit 2 by one scan. During this time, the signal processing unit 3 performs a measurement step of acquiring measurement points for one scan based on the signal input from the laser sensor unit 2 (step S1). Since the laser sensor unit 2 outputs a signal represented by polar coordinates, the signal processing unit 3 converts the polar coordinates into orthogonal coordinates.

続いて、信号処理部3は、抽出部3aによって、ステップS1で取得した計測点からエリア内計測点を抽出する抽出工程を行う(ステップS2)。ここでは、抽出部3aは、ステップS1で取得した計測点の座標が、予め設定された検知対象エリア内に位置するか否かを判断する。そして、抽出部3aは、検知対象エリア内に座標が位置する計測点をエリア内計測点として抽出し、例えばスキャン方向に順に番号を付与して記憶する。 Subsequently, the signal processing unit 3 performs an extraction step of extracting the measurement points in the area from the measurement points acquired in step S1 by the extraction unit 3a (step S2). Here, the extraction unit 3a determines whether or not the coordinates of the measurement points acquired in step S1 are located within the preset detection target area. Then, the extraction unit 3a extracts the measurement points whose coordinates are located in the detection target area as the measurement points in the area, assigns numbers in order in the scanning direction, and stores the measurement points.

続いて、信号処理部3は、検索部3bによって、スキャン検索工程(ステップS3)及びスイング検索工程(ステップS4)を行う。スキャン検索工程では、検索部3bは、ステップS2で抽出された全てのエリア内計測点に対して、スキャン方向に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に基づく物体想定領域のスキャン方向の幅を制限する。 Subsequently, the signal processing unit 3 performs a scan search step (step S3) and a swing search step (step S4) by the search unit 3b. In the scan search step, the search unit 3b assumes an object based on the measurement points in the area when there are measurement points outside the area adjacent to the measurement points in the area extracted in step S2. Limit the width of the area in the scanning direction.

図3は、スキャン検索工程(ステップS3)において検索部3bが1つのエリア内計測点に対して行う処理を示すフローチャートである。この図に示すように、検索部3bは、まずN値を「0」にセットし(ステップS3a)、続いてN値を「N+1」にセットする(ステップS3b)。続いて、検索部3bは、N値がスキャン検索上限よりも小さいか否かを判断する(ステップS3c)。ここで、「スキャン検索上限」は、スキャン方向に隣接するエリア内計測点の連続する数が、確実に検知対象物体であると判断されるべき値に設定されている。本実施形態において、スキャン検索工程(ステップS3)は、雪片等のスキャン方向の幅寸法が小さな物体をノイズ成分として削除するために行うものである。このため、スキャン検索上限を設定しておくことにより、ノイズ成分として削除すべきでない大きさの物体によって得られたエリア内計測点に対して、不必要にスキャン検索工程を続けることを防止することができる。つまり、本実施形態では、信号処理部3は、予め設定された個数の範囲でエリア内計測点に対して隣接するエリア外計測点を探索し、検索範囲にエリア外計測点が存在しない場合には、対象とされたエリア内計測点に対するエリア外計測点の探索を終了する。 FIG. 3 is a flowchart showing a process performed by the search unit 3b for one measurement point in the area in the scan search step (step S3). As shown in this figure, the search unit 3b first sets the N value to "0" (step S3a), and then sets the N value to "N + 1" (step S3b). Subsequently, the search unit 3b determines whether or not the N value is smaller than the scan search upper limit (step S3c). Here, the "scan search upper limit" is set to a value at which the continuous number of measurement points in the area adjacent to the scan direction should be reliably determined to be the object to be detected. In the present embodiment, the scan search step (step S3) is performed to remove an object having a small width dimension in the scan direction, such as a snowflake, as a noise component. Therefore, by setting the upper limit of the scan search, it is possible to prevent the scan search process from being unnecessarily continued for the measurement points in the area obtained by the object having a size that should not be deleted as a noise component. Can be done. That is, in the present embodiment, the signal processing unit 3 searches for out-of-area measurement points adjacent to the in-area measurement points within a preset number range, and when the out-of-area measurement points do not exist in the search range. Ends the search for out-of-area measurement points for the targeted in-area measurement points.

ステップS3cでN値がスキャン検索上限よりも小さい場合には、検索部3bは、プラススキャン方向においてN個隣りの計測点がエリア外計測点であるか否かの判断をする(ステップS3d)。そして、検索部3bは、N個隣りの計測点がエリア外計測点である場合、若しくは、ステップS3cでN値がスキャン検索上限よりも小さくないと判断した場合に、エリア内計測点を基準とする物体想定領域のプラススキャン方向のX距離(プラススキャン方向の大きさ)を算出する(ステップS3e)。例えば、検索部3bは、対象としているエリア内計測点のN個隣りの計測点がエリア外計測点である場合には、対象としているエリア内計測点から分解能に応じたプラススキャン方向(X方向)に直線状に延伸した位置までを上記X距離とする。つまり、検索部3bは、エリア外計測点に基づいて、物体想定領域(すなわちエリア内計測点が示す物体)のプラススキャン方向の大きさ(端部位置)を規定している。 When the N value is smaller than the scan search upper limit in step S3c, the search unit 3b determines whether or not the measurement points adjacent to N in the plus scan direction are out-of-area measurement points (step S3d). Then, when the search unit 3b determines that the measurement points adjacent to N are the measurement points outside the area, or when it is determined in step S3c that the N value is not smaller than the upper limit of the scan search, the search unit 3b uses the measurement points in the area as a reference. The X distance (magnitude in the plus scan direction) in the plus scan direction of the assumed object region is calculated (step S3e). For example, when the measurement points N adjacent to the measurement points in the target area are measurement points outside the area, the search unit 3b may perform a plus scan direction (X direction) according to the resolution from the measurement points in the target area. ) Is defined as the above X distance to the position extended linearly. That is, the search unit 3b defines the size (end position) of the object assumed area (that is, the object indicated by the measurement point in the area) in the plus scan direction based on the measurement points outside the area.

また、検索部3bは、ステップS3cでN値がスキャン検索上限よりも小さくないと判断した場合には、物体想定領域のプラススキャン方向のX距離を、分解能とスキャン検索上限数に応じた一定値に設定する。 Further, when the search unit 3b determines in step S3c that the N value is not smaller than the scan search upper limit, the search unit 3b sets the X distance in the plus scan direction of the object assumed area to a constant value according to the resolution and the scan search upper limit. Set to.

また、検索部3bは、ステップS3dでプラススキャン方向においてN個隣りの計測点がエリア外計測点でないと判断した場合には、再びステップS3bに戻り、N値の数を1つ増やす。 If the search unit 3b determines in step S3d that the measurement points adjacent to N in the plus scan direction are not out-of-area measurement points, the search unit 3b returns to step S3b again and increases the number of N values by one.

ステップS3eにて物体想定領域のプラススキャン方向のX距離が算出されると、次にマイナススキャン方向の検索に移る。検索部3bは、N値を「0」にセットし(ステップS3f)、続いてN値を「N+1」にセットする(ステップS3g)。続いて、検索部3bは、N値がスキャン検索上限よりも小さいか否かを判断する(ステップS3h)。 When the X distance in the plus scan direction of the assumed object area is calculated in step S3e, the search proceeds in the minus scan direction. The search unit 3b sets the N value to "0" (step S3f), and then sets the N value to "N + 1" (step S3g). Subsequently, the search unit 3b determines whether or not the N value is smaller than the scan search upper limit (step S3h).

ステップS3hでN値がスキャン検索上限よりも小さい場合には、検索部3bは、マイナススキャン方向においてN個隣りの計測点がエリア外計測点であるか否かの判断をする(ステップS3i)。そして、検索部3bは、N個隣りの計測点がエリア外計測点である場合、若しくは、ステップS3hでN値がスキャン検索上限よりも小さくないと判断した場合に、エリア内計測点を基準とする物体想定領域のマイナススキャン方向のX距離(マイナススキャン方向の大きさ)を算出する(ステップS3j)。例えば、検索部3bは、対象としているエリア内計測点のN個隣りの計測点がエリア外計測点である場合には、対象としているエリア内計測点から分解能に応じたマイナススキャン方向(X方向)に直線状に延伸した位置までを上記X距離とする。つまり、検索部3bは、エリア外計測点に基づいて、物体想定領域(すなわちエリア内計測点が示す物体)のマイナススキャン方向の大きさ(端部位置)を規定している。 When the N value is smaller than the scan search upper limit in step S3h, the search unit 3b determines whether or not the measurement points adjacent to N in the minus scan direction are out-of-area measurement points (step S3i). Then, when the search unit 3b determines that the measurement points adjacent to N are the measurement points outside the area, or when it is determined in step S3h that the N value is not smaller than the upper limit of the scan search, the search unit 3b uses the measurement points in the area as a reference. The X distance (magnitude in the minus scan direction) in the minus scan direction of the assumed object area is calculated (step S3j). For example, when the measurement points N adjacent to the measurement points in the target area are measurement points outside the area, the search unit 3b may perform a negative scan direction (X direction) according to the resolution from the measurement points in the target area. ) Is defined as the above X distance to the position extended linearly. That is, the search unit 3b defines the size (end position) of the object assumed area (that is, the object indicated by the measurement point in the area) in the minus scan direction based on the measurement points outside the area.

また、検索部3bは、ステップS3hでN値がスキャン検索上限よりも小さくないと判断した場合には、物体想定領域のマイナススキャン方向のX距離を、分解能とスキャン検索上限数に応じた一定値に設定する。 Further, when the search unit 3b determines in step S3h that the N value is not smaller than the scan search upper limit, the search unit 3b sets the X distance in the minus scan direction of the object assumed area to a constant value according to the resolution and the scan search upper limit. Set to.

また、検索部3bは、ステップS3iでマイナススキャン方向においてN個隣りの計測点がエリア外計測点でないと判断した場合には、再びステップS3gに戻り、N値の数を1つ増やす。 If the search unit 3b determines in step S3i that the measurement points adjacent to N in the minus scan direction are not out-of-area measurement points, the search unit 3b returns to step S3g again and increases the number of N values by one.

スイング検索工程では、検索部3bは、ステップS2で抽出された全てのエリア内計測点に対して、下方に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に基づく物体想定領域に対して浮上判定フラグを設定する。 In the swing search step, when the search unit 3b has a measurement point outside the area adjacent to the measurement points in the area extracted in step S2, the search unit 3b is an object assumption area based on the measurement points in the area. The ascent judgment flag is set for.

図4は、スイング検索工程(ステップS4)において検索部3bが1つのエリア内計測点に対して行う処理を示すフローチャートである。この図に示すように、検索部3bは、まずN値を「0」にセットし(ステップS4a)、続いてN値を「N+1」にセットする(ステップS4b)。続いて、検索部3bは、N値がスイング検索上限よりも小さいか否かを判断する(ステップS4c)。ここで、「スイング検索上限」は、下方に隣接するエリア内計測点の連続する数が、確実に検知対象物体であると判断されるべき値に設定されている。本実施形態において、スイング検索工程(ステップS4)は、雪片等の浮遊する小さな物体をノイズ成分として削除するために行うものである。このため、スイング検索上限を設定しておくことにより、ノイズ成分として削除すべきでない大きさの浮遊物体(もしくは地面に載置された物体の水平方向に張り出した一部)によって得られたエリア内計測点に対して、不必要にスイング検索工程を続けることを防止することができる。 FIG. 4 is a flowchart showing a process performed by the search unit 3b for one measurement point in the area in the swing search step (step S4). As shown in this figure, the search unit 3b first sets the N value to "0" (step S4a), and then sets the N value to "N + 1" (step S4b). Subsequently, the search unit 3b determines whether or not the N value is smaller than the swing search upper limit (step S4c). Here, the "swing search upper limit" is set to a value at which the continuous number of measurement points in the area adjacent to the lower side should be reliably determined to be the object to be detected. In the present embodiment, the swing search step (step S4) is performed to remove a small floating object such as a snowflake as a noise component. Therefore, by setting the upper limit of the swing search, the area obtained by a floating object (or a part of the object placed on the ground that overhangs in the horizontal direction) of a size that should not be deleted as a noise component is included. It is possible to prevent the swing search process from being unnecessarily continued for the measurement point.

ステップS4cでN値がスイング検索上限よりも小さい場合には、検索部3bは、マイナススイング方向(下方)においてN個隣りの計測点が近接したエリア外計測点であるか否かの判断をする(ステップS4d)。また、ステップS4dで、マイナススイング方向(下方)においてN個隣りの計測点が遠方のエリア外計測点であるか否かの判断をする(ステップS4e)。そして、検索部3bは、N個隣りの計測点がエリア外計測点である場合、若しくは、ステップS4cでN値がスイング検索上限よりも小さくないと判断した場合に、スイング検索工程(ステップS4)の対象となっているエリア内計測点に対して浮上判定フラグを設定する(ステップS4f)。 When the N value is smaller than the swing search upper limit in step S4c, the search unit 3b determines whether or not the measurement points adjacent to N in the minus swing direction (downward) are adjacent measurement points outside the area. (Step S4d). Further, in step S4d, it is determined whether or not the measurement points adjacent to N in the minus swing direction (downward) are the measurement points outside the distant area (step S4e). Then, when the search unit 3b determines that the measurement points adjacent to N are the measurement points outside the area, or when it is determined in step S4c that the N value is not smaller than the swing search upper limit, the swing search step (step S4). The ascent determination flag is set for the measurement points in the area targeted by (step S4f).

なお、本実施形態においては、マイナススイング方向でエリア外計測点が発見された場合には、浮上判定フラグを設定するのみであり、エリア外計測点を用いて物体の下端位置を規定しない。これは、踏切での障害物の検知や道路における車両の検知等の物体検知装置1の使用状況を鑑みると、下方向への物体の大きさを正確に知る必要性が低いためである。このように、エリア外計測点を用いて物体の下端位置を規定しないことによって、信号処理部3における処理負担を軽減することが可能となる。 In this embodiment, when an out-of-area measurement point is found in the minus swing direction, only the ascent determination flag is set, and the lower end position of the object is not specified by using the out-of-area measurement point. This is because it is not necessary to accurately know the size of the object in the downward direction in view of the usage status of the object detection device 1 such as the detection of obstacles at railroad crossings and the detection of vehicles on roads. As described above, by not defining the lower end position of the object by using the measurement point outside the area, it is possible to reduce the processing load in the signal processing unit 3.

また、検索部3bは、ステップS4cでマイナススイング方向においてN個隣りの計測点が近接したエリア外計測点でないと判断し、ステップS4dでマイナススイング方向においてN個隣りの計測点が遠方のエリア外計測点でないと判断した場合には、再びステップS4bに戻り、N値の数を1つ増やす。 Further, the search unit 3b determines in step S4c that the measurement points adjacent to N in the minus swing direction are not adjacent measurement points outside the area, and in step S4d, the measurement points adjacent to N in the minus swing direction are outside the distant area. If it is determined that the measurement point is not the measurement point, the process returns to step S4b and the number of N values is increased by one.

図2に戻り、信号処理部3は、スイング検索工程(ステップS4)が完了すると、グループ化部3cによって、グループ化工程(ステップS5)を行う。グループ化部3cは、エリア内計測点を基準とする物体想定領域同士が重なっているエリア内計測点同士をグループ化する。また、グループ化部3cは、他のエリア内計測点を基準とする物体想定領域と自らを基準とする物体想定領域とが重なっていない単独のエリア内計測点についても、当該単独のエリア内計測点を1つのグループとする。 Returning to FIG. 2, when the swing search step (step S4) is completed, the signal processing unit 3 performs the grouping step (step S5) by the grouping unit 3c. The grouping unit 3c groups the measurement points in the area where the assumed object areas based on the measurement points in the area overlap each other. In addition, the grouping unit 3c also measures the measurement points in a single area where the object assumption area based on another measurement point in the area and the object assumption area based on itself do not overlap. Let the points be one group.

続いて、信号処理部3は、変換部3dによって、変換工程を行う(ステップS6)。変換部3dは、エリア内計測点を物体に変換する。変換部3dは、グループ化部3cで設定された1つのグループを1つの物体とし、物体想定領域が占める空間を物体が存在する空間とする。 Subsequently, the signal processing unit 3 performs a conversion step by the conversion unit 3d (step S6). The conversion unit 3d converts the measurement points in the area into an object. In the conversion unit 3d, one group set by the grouping unit 3c is regarded as one object, and the space occupied by the object assumption area is regarded as the space in which the object exists.

続いて、信号処理部3は、ノイズ削除部3eによって、削除工程を行う(ステップS7)。図5は、削除工程(ステップS7)においてノイズ削除部3eがステップS6で変換された物体の1つに対して行う処理を示すフローチャートである。この図に示すように、ノイズ削除部3eは、物体を構成するエリア内計測点が予め設定された構成点数閾値以下であるか否かの判断を行う(ステップS7a)。 Subsequently, the signal processing unit 3 performs a deletion step by the noise deletion unit 3e (step S7). FIG. 5 is a flowchart showing a process performed by the noise deleting unit 3e on one of the objects converted in step S6 in the deletion step (step S7). As shown in this figure, the noise removing unit 3e determines whether or not the measurement points in the area constituting the object are equal to or less than the preset number of constituent points threshold value (step S7a).

ノイズ削除部3eは、ステップS7aで物体を構成するエリア内計測点が構成点数閾値以下でないと判断した場合には、対象となっている物体を削除することなく、当該物体に対する削除工程(ステップS7)を終了する。一方で、ノイズ削除部3eは、ステップS7aで物体を構成するエリア内計測点が構成点数閾値以下であると判断した場合には、物体のX幅(スキャン方向の幅寸法)が予め設定された幅閾値以下であるか否かの判断を行う(ステップS7b)。また、ノイズ削除部3eは、ステップS7bで物体のX幅が幅閾値以下でないと判断した場合には、物体を構成するエリア内計測点に対して浮上判定フラグが設定されているか否かの判断を行う(ステップS7c)。なお、ノイズ削除部3eは、例えば物体を構成するエリア内計測点が複数存在する場合には、当該物体を構成するエリア内計測点の全てに対して浮上判定フラグが設定されている場合に、ステップS7cにおいて、物体を構成するエリア内計測点に対して浮上判定フラグが設定されていると判断する。 When the noise deleting unit 3e determines in step S7a that the measurement points in the area constituting the object are not equal to or less than the threshold number of constituent points, the noise deleting unit 3e does not delete the target object but deletes the object (step S7). ) Is finished. On the other hand, when the noise removing unit 3e determines in step S7a that the measurement points in the area constituting the object are equal to or less than the threshold number of constituent points, the X width (width dimension in the scanning direction) of the object is set in advance. It is determined whether or not it is equal to or less than the width threshold value (step S7b). Further, when the noise removing unit 3e determines in step S7b that the X width of the object is not equal to or less than the width threshold value, the noise removing unit 3e determines whether or not the levitation determination flag is set for the measurement points in the area constituting the object. (Step S7c). In the noise removing unit 3e, for example, when there are a plurality of measurement points in the area constituting the object, the levitation determination flag is set for all the measurement points in the area constituting the object. In step S7c, it is determined that the ascent determination flag is set for the measurement points in the area constituting the object.

そして、ノイズ削除部3eは、ステップS7bで物体のX幅が幅閾値以下であると判断した場合、若しくは、ステップS7cで物体を構成するエリア内計測点に対して浮上判定フラグが設定されていると判断した場合には、物体をノイズ成分(すなわち検知対象物体でない物体)として削除する。なお、ノイズ削除部3eは、ステップS7bで物体のX幅が幅閾値以下でないと判断し、さらにステップS7cで物体を構成するエリア内計測点に対して浮上判定フラグが設定されていないと判断した場合には、対象となっている物体を削除することなく、当該物体に対する削除工程(ステップS7)を終了する。 Then, when the noise removing unit 3e determines in step S7b that the X width of the object is equal to or less than the width threshold value, or in step S7c, a levitation determination flag is set for the measurement points in the area constituting the object. If it is determined, the object is deleted as a noise component (that is, an object that is not the object to be detected). The noise removing unit 3e determines in step S7b that the X width of the object is not equal to or less than the width threshold value, and further determines in step S7c that the levitation determination flag is not set for the measurement points in the area constituting the object. In that case, the deletion step (step S7) for the target object is completed without deleting the target object.

図2に戻り、信号処理部3は、削除工程(ステップS5)が完了すると、物体合成部3fによって、物体合成工程(ステップS8)を行う。物体合成部3fは、本スキャン動作で生成された物体と、他のスキャン動作で生成された物体とが重なっている場合に、これらの物体を合成して1つの物体とする。 Returning to FIG. 2, when the deletion step (step S5) is completed, the signal processing unit 3 performs the object synthesis step (step S8) by the object synthesis unit 3f. When the object generated by this scanning operation and the object generated by another scanning operation overlap each other, the object synthesizing unit 3f synthesizes these objects into one object.

続いて、信号処理部3は、判定部3gによって、1フレーム分の物体の合成が全て完了しているか否かの判定を行う(ステップS9)。判定部3gによって1フレーム分の物体の合成が全て完了していないと判定された場合には、測定用のレーザ光の射出方向がマイナススイング方向に変化され、信号処理部3は、再びステップS1に戻る。 Subsequently, the signal processing unit 3 determines whether or not all the synthesis of the objects for one frame is completed by the determination unit 3g (step S9). When it is determined by the determination unit 3g that the synthesis of the object for one frame is not completed, the emission direction of the laser beam for measurement is changed to the minus swing direction, and the signal processing unit 3 again performs step S1. Return to.

ステップS9で1フレーム分の物体の合成が全て完了していると判定された場合には、信号処理部3は、物体情報付与部3hによって合成された物体に対して、ID番号や、大きさ等の物体情報を関連情報として付与し(ステップS10)、出力部3iによって検出結果すなわち検知対象エリアに位置する検知対象物体とその関連情報を、外部に対して出力する(ステップS11)。 When it is determined in step S9 that all the synthesis of the objects for one frame is completed, the signal processing unit 3 has an ID number and a size with respect to the objects synthesized by the object information addition unit 3h. The object information such as the above is added as related information (step S10), and the detection result, that is, the detected object located in the detection target area and the related information thereof are output to the outside by the output unit 3i (step S11).

以上のような本実施形態の物体検知装置1及び物体検知方法によれば、従来の物体検知装置及び物体検知方法において用いられていた検知対象エリア内の計測点(エリア内計測点)だけでなく、検知対象エリアの外の計測点(エリア外計測点)も用いて、エリア内計測点が示す物体の大きさを規定する。例えば、図6に示すように、エリア外計測点を挟むように位置する2つのエリア内計測点の各々が示す物体(物体1及び物体2)は、別の物体として検知可能であることが好ましい。ここで、本実施形態の物体検知装置1及び物体検知方法によれば、エリア外計測点を用いることによって、物体の大きさをより正確に規定するため、物体の大きさの検出精度を向上させることができ、物体1と物体2とを別の物体として検知することができる。したがって、本実施形態の物体検知装置1及び物体検知方法によれば、例えば雪片、雨粒及び木の葉等をより正確に1つ1つが障害物とならない小さな物体であると認知することができ、誤検知をより確実に防止することが可能となる。 According to the object detection device 1 and the object detection method of the present embodiment as described above, not only the measurement points (measurement points in the area) in the detection target area used in the conventional object detection device and the object detection method but also the measurement points in the detection target area. , The size of the object indicated by the measurement point in the area is also specified by using the measurement point outside the detection target area (measurement point outside the area). For example, as shown in FIG. 6, it is preferable that the objects (object 1 and object 2) indicated by each of the two measurement points in the area located so as to sandwich the measurement points outside the area can be detected as different objects. .. Here, according to the object detection device 1 and the object detection method of the present embodiment, the size of the object is defined more accurately by using the measurement points outside the area, so that the detection accuracy of the size of the object is improved. It is possible to detect the object 1 and the object 2 as different objects. Therefore, according to the object detection device 1 and the object detection method of the present embodiment, for example, snowflakes, raindrops, leaves, etc. can be more accurately recognized as small objects that do not become obstacles, and false detection is possible. Can be prevented more reliably.

また、本実施形態の物体検知装置1においては、信号処理部3が、エリア内計測点の側方に隣接するエリア外計測点に基づいてエリア内計測点が示す物体の水平方向の幅寸法を求めている。このため、本実施形態の物体検知装置1によれば、正確に物体の水平方向の幅寸法を求めることが可能となる。 Further, in the object detection device 1 of the present embodiment, the signal processing unit 3 determines the horizontal width dimension of the object indicated by the in-area measurement point based on the out-of-area measurement point adjacent to the side of the in-area measurement point. I'm looking for it. Therefore, according to the object detection device 1 of the present embodiment, it is possible to accurately obtain the horizontal width dimension of the object.

また、本実施形態の物体検知装置1においては、信号処理部3が、予め設定された個数の範囲でエリア内計測点に対して隣接するエリア外計測点を探索し、検索範囲にエリア外計測点が存在しない場合には、エリア内計測点に対するエリア外計測点の探索を終了している。このため、ノイズ成分として削除すべきでない大きさの物体によって得られたエリア内計測点に対して、不必要にスキャン検索工程を続けることを防止することができ、信号処理部3の処理負担を低減することができる。 Further, in the object detection device 1 of the present embodiment, the signal processing unit 3 searches for measurement points outside the area adjacent to the measurement points in the area within a preset number range, and measures outside the area in the search range. If the point does not exist, the search for the measurement point outside the area with respect to the measurement point in the area is completed. Therefore, it is possible to prevent the scan search process from being unnecessarily continued for the measurement points in the area obtained by the object having a size that should not be deleted as a noise component, and the processing load of the signal processing unit 3 is increased. Can be reduced.

また、本実施形態の物体検知装置1においては、エリア内計測点に対して側方にエリア外計測点が存在する場合に、物体の水平方向の端部位置をエリア外計測点に基づいて規定している。一方で、本実施形態の物体検知装置1においては、エリア内計測点に対して下方にエリア外計測点が存在する場合には、浮上判定フラグを設定するのみで、物体の下方の端部位置をエリア外計測点に基づいて規定していない。上述のように、下方向への物体の大きさを正確に知る必要性が低いため、エリア外計測点を用いて物体の下端位置を規定しないことによって、信号処理部3における処理負担を軽減することが可能となる。 Further, in the object detection device 1 of the present embodiment, when there is an out-of-area measurement point on the side of the in-area measurement point, the horizontal end position of the object is defined based on the out-of-area measurement point. is doing. On the other hand, in the object detection device 1 of the present embodiment, when the measurement point outside the area exists below the measurement point in the area, only the levitation determination flag is set and the position of the lower end of the object is set. Is not specified based on the measurement points outside the area. As described above, since it is not necessary to accurately know the size of the object in the downward direction, the processing load in the signal processing unit 3 is reduced by not defining the lower end position of the object by using the measurement point outside the area. It becomes possible.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は、上記実施形態に限定されないことは言うまでもない。上述した実施形態において示した各構成部材の諸形状や組み合わせ等は一例であって、本発明の趣旨から逸脱しない範囲において設計要求等に基づき種々変更可能である。 Although the preferred embodiment of the present invention has been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to the above embodiment. The various shapes and combinations of the constituent members shown in the above-described embodiment are examples, and can be variously changed based on design requirements and the like without departing from the spirit of the present invention.

例えば、エリア外計測点に基づいて、物体の水平方向の幅寸法を規定する構成について説明した。しかしながら、本発明はこれに限定されるものではない。例えば、エリア内計測点の上方にエリア外計測点が存在する場合には、当該エリア外計測点を用いて物体の上端位置を規定することも可能である。また、一般的に物体検知装置1は、検知対象エリアの上方に配置されているため、物体の奥行方向の形状も検出することが可能である。このため、例えば、エリア内計測点の上方にエリア外計測点が存在する場合には、当該エリア外計測点を用いて物体の奥行方向の端部位置を規定することも可能である。 For example, a configuration that defines the horizontal width dimension of an object based on an out-of-area measurement point has been described. However, the present invention is not limited to this. For example, when an out-of-area measurement point exists above the in-area measurement point, it is also possible to specify the upper end position of the object by using the out-of-area measurement point. Further, since the object detection device 1 is generally arranged above the detection target area, it is possible to detect the shape of the object in the depth direction. Therefore, for example, when an out-of-area measurement point exists above the in-area measurement point, it is possible to specify the end position in the depth direction of the object by using the out-of-area measurement point.

また、上記実施形態においては、ノイズ成分を除去する構成について説明した。しかしながら、本発明はこれに限定されるものではない。例えば、物体の形状のみを正確に求める物体検知装置に適用することも可能である。 Further, in the above embodiment, the configuration for removing the noise component has been described. However, the present invention is not limited to this. For example, it can be applied to an object detection device that accurately obtains only the shape of an object.

1……物体検知装置
2……レーザセンサユニット
3……信号処理部
3a……抽出部
3b……検索部
3c……グループ化部
3d……変換部
3e……ノイズ削除部
3f……物体合成部
3g……判定部
3h……物体情報付与部
3i……出力部
4……ユニット制御部
1 …… Object detection device 2 …… Laser sensor unit 3 …… Signal processing unit 3a …… Extraction unit 3b …… Search unit 3c …… Grouping unit 3d …… Conversion unit 3e …… Noise deletion unit 3f …… Object synthesis Unit 3g …… Judgment unit 3h …… Object information addition unit 3i …… Output unit 4 …… Unit control unit

Claims (1)

計測用のレーザ光を射出かつ射出方向を変更可能であると共に前記レーザ光の反射光を受光して電気信号として出力するレーザセンサユニットと、前記レーザセンサユニットの出力信号に基づいて物体の検知を行う信号処理部とを備える物体検知装置であって、
前記信号処理部は、予め設定された検知対象エリアに位置するエリア内計測点を抽出し、前記エリア内計測点に隣接すると共に前記検知対象エリアの外に位置するエリア外計測点に基づいて、前記エリア内計測点が示す物体の大きさを規定し、
前記信号処理部は、少なくとも側方及び上方のいずれかの方向に前記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に前記エリア外計測点が隣接する方向における前記エリア内計測点が示す物体の端部位置を前記エリア外計測点に基づいて規定し、下方に前記エリア内計測点に隣接するエリア外計測点が存在する場合に、当該エリア内計測点に前記エリア外計測点が隣接する方向における前記エリア内計測点が示す物体の端部位置を前記エリア外計測点に基づいて規定しない
ことを特徴とする物体検知装置。
A laser sensor unit that emits a laser beam for measurement and can change the emission direction, receives the reflected light of the laser beam and outputs it as an electric signal, and detects an object based on the output signal of the laser sensor unit. An object detection device equipped with a signal processing unit to perform
The signal processing unit extracts the measurement points in the area located in the preset detection target area, and based on the measurement points outside the area adjacent to the measurement points in the area and located outside the detection target area, the signal processing unit extracts the measurement points in the area. The size of the object indicated by the measurement point in the area is specified.
When the signal processing unit has an out-of-area measurement point adjacent to the in-area measurement point in at least one of the lateral and upper directions, the direction in which the out-of-area measurement point is adjacent to the in-area measurement point. The end position of the object indicated by the measurement point in the area in the above area is defined based on the measurement point outside the area, and when the measurement point outside the area adjacent to the measurement point in the area exists below, the measurement point in the area is defined. An object detection device characterized in that the end position of an object indicated by the in-area measurement point in a direction adjacent to the out-of-area measurement point is not specified based on the out-of-area measurement point.
JP2017210136A 2017-10-31 2017-10-31 Object detection device Active JP7073673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017210136A JP7073673B2 (en) 2017-10-31 2017-10-31 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017210136A JP7073673B2 (en) 2017-10-31 2017-10-31 Object detection device

Publications (2)

Publication Number Publication Date
JP2019082411A JP2019082411A (en) 2019-05-30
JP7073673B2 true JP7073673B2 (en) 2022-05-24

Family

ID=66670327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017210136A Active JP7073673B2 (en) 2017-10-31 2017-10-31 Object detection device

Country Status (1)

Country Link
JP (1) JP7073673B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004272841A (en) 2003-03-12 2004-09-30 Omron Corp Object discriminating apparatus
JP2005212553A (en) 2004-01-28 2005-08-11 East Japan Railway Co Detecting device and detecting method
JP2009288055A (en) 2008-05-29 2009-12-10 Ishikawajima Transport Machinery Co Ltd Method of calculating position information of object
JP2011043330A (en) 2009-08-19 2011-03-03 Ihi Corp Method and device for obstacle detection
JP2014196962A (en) 2013-03-29 2014-10-16 日本信号株式会社 Object detection system
US20160339959A1 (en) 2015-05-21 2016-11-24 Lg Electronics Inc. Driver Assistance Apparatus And Control Method For The Same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004272841A (en) 2003-03-12 2004-09-30 Omron Corp Object discriminating apparatus
JP2005212553A (en) 2004-01-28 2005-08-11 East Japan Railway Co Detecting device and detecting method
JP2009288055A (en) 2008-05-29 2009-12-10 Ishikawajima Transport Machinery Co Ltd Method of calculating position information of object
JP2011043330A (en) 2009-08-19 2011-03-03 Ihi Corp Method and device for obstacle detection
JP2014196962A (en) 2013-03-29 2014-10-16 日本信号株式会社 Object detection system
US20160339959A1 (en) 2015-05-21 2016-11-24 Lg Electronics Inc. Driver Assistance Apparatus And Control Method For The Same

Also Published As

Publication number Publication date
JP2019082411A (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP5531474B2 (en) Map generation device, runway estimation device, movable region estimation device, and program
KR102062680B1 (en) Laser point cloud based urban road recognition method, device, storage medium and device
CN108271408B (en) Generating three-dimensional maps of scenes using passive and active measurements
JP5407898B2 (en) Object detection apparatus and program
JP4650079B2 (en) Object detection apparatus and method
JP6608456B2 (en) Estimation apparatus, control method, program, and storage medium
Gargoum et al. Automated highway sign extraction using lidar data
US9316730B2 (en) Monitoring device and monitoring method
JP6505470B2 (en) Noise removal method and object recognition apparatus
US10134304B1 (en) Scanning obstacle sensor for the visually impaired
JP2011027594A (en) Map data verification system
EP3851872A1 (en) Object detection on a path of travel and obstacle detection on railway tracks using free space information
JP7232946B2 (en) Information processing device, information processing method and program
JP2015153162A (en) Boundary line recognition device
JP6996179B2 (en) Object detection device and object detection method
JPWO2018180245A1 (en) Output device, control method, program and storage medium
JP7073673B2 (en) Object detection device
JP6900214B2 (en) Obstacle detection device and obstacle detection method
JP5765163B2 (en) Self-position estimation apparatus, method, and program
CN103824082A (en) Pedestrian detection method and detection system thereof
JP2019095875A (en) Vehicle control device, vehicle control method, and program
JP2021047099A (en) Vehicle own-location estimation device and own-location estimation method
JP6837626B1 (en) Feature data generation system, feature database update system, and feature data generation method
JP2016045015A (en) Road curvature detection device
JP2019168985A (en) Control device, control method, program and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R151 Written notification of patent or utility model registration

Ref document number: 7073673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151