JP2011122851A - Method and device for detecting object - Google Patents
Method and device for detecting object Download PDFInfo
- Publication number
- JP2011122851A JP2011122851A JP2009278639A JP2009278639A JP2011122851A JP 2011122851 A JP2011122851 A JP 2011122851A JP 2009278639 A JP2009278639 A JP 2009278639A JP 2009278639 A JP2009278639 A JP 2009278639A JP 2011122851 A JP2011122851 A JP 2011122851A
- Authority
- JP
- Japan
- Prior art keywords
- scanning
- light
- processing unit
- monitoring area
- reflected light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、例えば踏切内のような監視領域に存在する物体を検出する方法及びその装置に関するものである。 The present invention relates to a method and an apparatus for detecting an object existing in a monitoring area such as in a railroad crossing.
測距用の走査光により3次元空間を主走査方向及び副走査方向に走査させ、その反射光を解析することで、監視領域に存在する物体を検出する技術は、踏切内の障害物検出の分野でも利用されている(例えば、特許文献1)。 The technology for detecting objects in the monitoring area by scanning the three-dimensional space with the scanning light for distance measurement in the main scanning direction and the sub-scanning direction and analyzing the reflected light It is also used in the field (for example, Patent Document 1).
走査光を主走査方向及び副走査方向に走査させるには、一般的に、ポリゴンミラーとガルバノミラーが組み合わせて用いられる。その場合は、例えばレーザ光源等の光源から出射された走査光をポリゴンミラーで主走査方向に走査させ、さらに、この主走査方向への走査光をガルバノミラーで副走査方向に走査させることになる。 In order to scan the scanning light in the main scanning direction and the sub-scanning direction, a polygon mirror and a galvanometer mirror are generally used in combination. In this case, for example, scanning light emitted from a light source such as a laser light source is scanned in the main scanning direction by a polygon mirror, and further, scanning light in the main scanning direction is scanned in the sub scanning direction by a galvano mirror. .
上述した走査光の反射光を解析して物体検出を行うには、走査光の反射光に関するデータが監視領域の全体分必要となる。そこで、副走査方向における走査光の走査端を区切りとして、走査光の反射光に関するデータを監視領域の全体分取得することが考えられる。 In order to detect an object by analyzing the reflected light of the scanning light described above, data relating to the reflected light of the scanning light is required for the entire monitoring region. Therefore, it is conceivable to acquire the data related to the reflected light of the scanning light for the entire monitoring area with the scanning end of the scanning light in the sub-scanning direction as a break.
副走査方向における走査光の走査端は、ガルバノミラーの揺動端をセンサにより物理的に検出したり、モータの駆動信号から算出される制御上のガルバノミラーの揺動位置が変化しなくなったことを検出することで、認識することができる。しかし、モータがサーボ制御によりガルバノミラーの揺動端付近で回転速度を落とすと、ガルバノミラーが軸受の摩擦により揺動端付近で瞬間的に停止し、その後、本来の揺動端まで再び僅かに揺動することがある。このような、揺動端の手前におけるガルバノミラーの瞬間的な停止が発生すると、ガルバノミラーが揺動端に達したとの誤検出が発生し、走査光が副走査方向における走査端に達したものと誤って認識されてしまう場合がある。 As for the scanning end of the scanning light in the sub-scanning direction, the oscillating end of the galvano mirror is physically detected by a sensor, and the oscillating position of the control galvano mirror calculated from the drive signal of the motor no longer changes. Can be recognized. However, if the motor reduces the rotation speed near the oscillating end of the galvano mirror by servo control, the galvano mirror stops instantaneously near the oscillating end due to the friction of the bearing, and then slightly again to the original oscillating end. May swing. When such a momentary stop of the galvano mirror before the swing end occurs, an erroneous detection that the galvano mirror has reached the swing end occurs, and the scanning light reaches the scanning end in the sub-scanning direction. It may be mistakenly recognized as a thing.
したがって、走査光の副走査方向における走査端を、走査光の反射光による物体検出の区切りに用いるには、上述したような誤検出の可能性に備えた対策を講じる必要がある。そのような対策を講じることは、副走査方向における走査光の走査端を認識するための構成を複雑なものとしてしまうことにつながる。 Therefore, in order to use the scanning end of the scanning light in the sub-scanning direction for the detection of the object detection by the reflected light of the scanning light, it is necessary to take measures for the possibility of erroneous detection as described above. Taking such measures leads to a complicated configuration for recognizing the scanning end of the scanning light in the sub-scanning direction.
このように、監視領域上における走査光の位置を検出して、それを基準に、監視領域の全体分に応じた走査光の反射光に関するデータを取得するようにすると、監視領域上における走査光の位置検出精度の影響を受けないようにする対策が不可欠となる。 As described above, when the position of the scanning light on the monitoring area is detected and the data on the reflected light of the scanning light corresponding to the entire monitoring area is acquired based on the detected position, the scanning light on the monitoring area is obtained. It is essential to take measures to avoid the influence of the position detection accuracy.
本発明は前記事情に鑑みなされたもので、本発明の目的は、監視領域上における走査光の走査位置を基準にしなくても、監視領域の全体分に応じた走査光の反射光に関するデータを用いた正確な物体検出を実現することができる物体検出方法とその装置とを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to obtain data relating to reflected light of scanning light corresponding to the entire monitoring area without using the scanning position of the scanning light on the monitoring area as a reference. An object of the present invention is to provide an object detection method and apparatus capable of realizing accurate object detection.
上記目的を達成するため、請求項1に記載した本発明の物体検出方法は、複数本の走査線上を順次走査する走査光により監視領域の全体を走査し、各走査光の反射光により前記監視領域に存在する物体を検出する方法において、前記監視領域上に位置する走査線の本数よりも少ない所定本数の走査線上を前記走査光が走査する度に、前記各走査線の最新の走査光の反射光に基づいて、前記監視領域に存在する物体を検出することを特徴とする。 In order to achieve the above object, the object detection method of the present invention described in claim 1 scans the entire monitoring region by scanning light that sequentially scans a plurality of scanning lines, and the monitoring by reflected light of each scanning light. In the method of detecting an object present in an area, each time the scanning light scans a predetermined number of scanning lines that are smaller than the number of scanning lines located on the monitoring area, the latest scanning light of each scanning line is detected. An object existing in the monitoring area is detected based on reflected light.
また、上記目的を達成するため、請求項3に記載した本発明の物体検出装置は、複数本の走査線上を順次走査する走査光により監視領域の全体を走査するレーザレーダと、前記監視領域上に位置する前記各走査線上をそれぞれ走査した前記各走査光の反射光に基づいて、前記監視領域に存在する物体を検出する物体検出手段と、前記監視領域上に位置する前記各走査線上をそれぞれ走査した最新の前記走査光の反射光のデータを記憶する反射光データ記憶手段と、前記監視領域上に位置する走査線の本数よりも少ない所定本数の走査線上を前記走査光が走査する度に、前記反射光データ記憶手段に記憶された前記各走査線上を走査した最新の前記各走査光の反射光のデータに基づいて、前記物体検出手段により前記監視領域に存在する物体を検出させる制御手段とを備えることを特徴とする。 In order to achieve the above object, an object detection apparatus according to a third aspect of the present invention includes a laser radar that scans the entire monitoring area with scanning light that sequentially scans a plurality of scanning lines, Object detection means for detecting an object present in the monitoring area based on the reflected light of each scanning light respectively scanned on each scanning line located on the scanning line, and on each scanning line located on the monitoring area, respectively. Each time the scanning light scans reflected light data storage means for storing reflected light data of the latest scanned light and a predetermined number of scanning lines which are smaller than the number of scanning lines located on the monitoring area. Based on the latest reflected light data of each scanning light scanned on each scanning line stored in the reflected light data storage means, the object detection means detects an object present in the monitoring area. Characterized in that it comprises a control means for causing out.
請求項1に記載した本発明の物体検出方法と、請求項3に記載した本発明の物体検出装置とによれば、所定本数の走査線上を走査光が走査する度に、その所定本数の走査線を含む監視領域上の複数の走査線上をそれぞれ走査した最新の各走査光の反射光に基づいて、監視領域に存在する物体の検出が行われる。ここで、所定本数は監視領域上に位置する走査線の数よりも少ないことから、各走査光の反射光に基づいて監視領域の物体検出が行われる周期は、走査光が監視領域の端から端まで全ての走査線上を走査し終える周期とは同期しない。
According to the object detection method of the present invention described in claim 1 and the object detection apparatus of the present invention described in
したがって、監視領域の端から端まで全ての走査線上を走査光が走査し終えるタイミングを認識するために、走査線の延在方向と直交する列設方向における監視領域の端部に走査光が達したことを検出する必要がない。このため、監視領域上における走査光の高精度な走査位置検出が困難な場合であっても、その影響を受けることなく、監視領域の全体分に応じた走査光の反射光に関するデータを用いた正確な物体検出を実現することができる。 Therefore, in order to recognize the timing at which the scanning light finishes scanning on all the scanning lines from the end to the end of the monitoring area, the scanning light reaches the end of the monitoring area in the row direction perpendicular to the extending direction of the scanning lines. There is no need to detect that. For this reason, even when it is difficult to detect the scanning position of the scanning light on the monitoring area with high accuracy, the data regarding the reflected light of the scanning light corresponding to the entire monitoring area is used without being affected by the detection. Accurate object detection can be realized.
さらに、請求項2に記載した本発明の物体検出方法は、請求項1に記載した本発明の物体検出方法において、前記所定本数が1本であることを特徴とする。また、請求項4に記載した本発明の物体検出装置は、請求項3に記載した本発明の物体検出装置において、前記所定本数が1本であることを特徴とする。 Furthermore, the object detection method of the present invention described in claim 2 is the object detection method of the present invention described in claim 1, wherein the predetermined number is one. According to a fourth aspect of the present invention, in the object detection device of the present invention described in the third aspect, the predetermined number is one.
請求項2に記載した本発明の物体検出方法と、請求項4に記載した本発明の物体検出装置とによれば、請求項1に記載した本発明の物体検出方法と、請求項3に記載した本発明の物体検出装置とにおいて、監視領域上の各走査線上を走査光が走査する度に、監視領域の全体分の走査光の反射光に基づいた物体検出が行われることになる。このため、走査光が監視領域の端から端まで全ての走査線上を走査し終える周期に対して高速で移動する物体についても、監視領域上における走査光の走査位置検出精度の影響を受けることなく、監視領域の全体分に応じた走査光の反射光に関するデータを用いた物体検出を実現することができる。 According to the object detection method of the present invention described in claim 2 and the object detection device of the present invention described in claim 4, the object detection method of the present invention described in claim 1 and claim 3 In the object detection apparatus of the present invention, each time scanning light scans each scanning line on the monitoring area, object detection is performed based on the reflected light of the scanning light for the entire monitoring area. For this reason, an object that moves at high speed with respect to a period in which the scanning light scans all the scanning lines from end to end of the monitoring area is not affected by the detection position detection accuracy of the scanning light on the monitoring area. Thus, it is possible to realize object detection using data relating to the reflected light of the scanning light corresponding to the entire monitoring area.
本発明によれば、監視領域上における走査光の走査位置を基準にしなくても、監視領域の全体分に応じた走査光の反射光に関するデータを取得できる。このため、監視領域上における走査光の高精度な走査位置検出が困難な場合であっても、その影響を受けることなく、監視領域の全体分に応じた走査光の反射光に関するデータを用いた正確な物体検出を実現することができる。 According to the present invention, it is possible to acquire data related to the reflected light of the scanning light corresponding to the entire monitoring area without using the scanning position of the scanning light on the monitoring area as a reference. For this reason, even when it is difficult to detect the scanning position of the scanning light on the monitoring area with high accuracy, the data regarding the reflected light of the scanning light corresponding to the entire monitoring area is used without being affected by the detection. Accurate object detection can be realized.
以下、本発明の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は本発明による物体検出方法を適用した本発明の一実施形態に係る物体検出装置を示す概略構成図である。 FIG. 1 is a schematic configuration diagram showing an object detection apparatus according to an embodiment of the present invention to which an object detection method according to the present invention is applied.
図1に示す物体検出装置は、監視対象のエリアを走査光により走査してその反射光によりエリア内の物体を検出するもので、走査光を出力しその反射光を受光するレーザレーダヘッド5と、走査光及び反射光に基づいてエリア内の物体の検出処理を行う制御装置6とを有している。
The object detection apparatus shown in FIG. 1 scans an area to be monitored with scanning light and detects an object in the area by reflected light. The
図1の物体検出装置を例えば踏切の障害物検出に用いる場合、前記レーザレーダヘッド5は、図2の斜視図に鳥瞰状態で示すように、踏切Aの近傍に立設した支柱Bの上端付近に取り付け設置される。このような高所にレーザレーダヘッド5を設置することで、レーザレーダヘッド5からの走査光を踏切Aの車両Cや通行人(図示せず)が立ち入るエリアを走査光で走査することができる。なお、図2中の破線は、レーザレーダヘッド5からの走査光による走査範囲Eを模式的に示している。
When the object detection apparatus of FIG. 1 is used, for example, for detecting an obstacle at a level crossing, the
そして、レーザレーダヘッド5は、図1に示すように、レーザ光Lを出力する投光部1と、レーザ光Lを水平及び垂直方向に走査させて走査光L1とするポリゴンミラー11及びガルバノミラー12と、物体に照射された走査光L1の反射光L2をガルバノミラー12及びポリゴンミラー11による反射後に受光する受光部2と、走査光L1及び反射光L2が通過する投光窓Wと、投光部1及び受光部2から得られる走査光L1及び反射光L2に関する情報から物体検出に必要な計測データDを生成する信号処理部3とを有している。この信号処理部3は、主信号処理部31と時間計測部32とを有する。
As shown in FIG. 1, the
前記投光部1は、光源となるレーザダイオード1aと、レーザ光Lをコリメートする投光レンズ1bと、レーザダイオード1aを操作するLDドライバ1cとを有している。LDドライバ1cは、信号処理部3からのトリガー信号Stに基づいてレーザ光Lを間欠発光させるようにレーザダイオード1aを操作し、レーザ光Lの間欠発光と同期するパルス状の投光同期信号Ssを信号処理部3に発信する。なお、投光同期信号Ssは、トリガー信号Stにより代用するようにしてもよい。
The light projecting unit 1 includes a
前記ポリゴンミラー11は、高速回転する6面体を有しており、鏡面化された4側面を除く対峙する2面(上下面)の中心を回転軸としてモータ11aにより回転されるように構成されている。モータ11aは、モータドライバ11bにより操作される。このポリゴンミラー11の4側面のいずれかでレーザ光Lが反射されることで、レーザ光Lは主走査方向(水平走査方向)に走査される。
The
前記ガルバノミラー12は、モータ12aにより限られた角度範囲で往復回動される回動軸の側面に接続されており、この回動軸の往復回動により往復揺動される。モータ12aは、モータドライバ12bにより操作される。このガルバノミラー12の一面でレーザ光Lが反射されることで、レーザ光Lは副走査方向(垂直走査方向)に走査される。
The
なお、ポリゴンミラー11及びガルバノミラー12のモータドライバ11b,12bは、信号処理部3からの制御信号Smにより制御される。また、モータドライバ11b,12bは、ポリゴンミラー11の回転角度やガルバノミラー12の揺動角度等の投光条件信号Scを信号処理部3に発信する。なお、上述したポリゴンミラー11及びガルバノミラー12は単なる一例であり、レーザ光Lの走査光学系は図示した構成に限定されるものではない。
The
ちなみに、上述したポリゴンミラー11及びガルバノミラー12によりレーザ光Lが水平及び垂直方向に走査されると、図3(a),(b)に示すような走査線上を走査する走査光L1となる。具体的には、ガルバノミラー12が仰角側から俯角側に揺動する際には、図3(a)に示すように、左上から右下に向かう斜めの走査線上を走査する走査光L1となる。反対に、ガルバノミラー12が俯角側から仰角側に揺動する際には、図3(b)に示すように、左下から右上に向かう斜めの走査線上を走査する走査光L1となる。以後、便宜的に、図3(a)を往路の走査線、図3(b)を復路の走査線と呼ぶことがある。
Incidentally, when the laser light L is scanned in the horizontal and vertical directions by the
往路の走査線も復路の走査線も、水平に対する傾きは僅かなものであるから、運用上は、往路の各走査線と復路の各走査線は同じ箇所を走査するものと見倣している。そして、垂直走査範囲の上端から下端までの全走査線(本実施形態では50本)を一組として、走査範囲Eの1フレーム分の走査線が構成される。 Since both the forward scanning line and the backward scanning line have a slight inclination with respect to the horizontal, in the operation, it is assumed that each scanning line in the forward path and each scanning line in the backward path scan the same part. . Then, the scanning lines for one frame of the scanning range E are configured by setting all the scanning lines (50 in this embodiment) from the upper end to the lower end of the vertical scanning range as a set.
なお、往路及び復路のいずれの場合にも、垂直走査範囲の上端付近及び下端付近では、走査線の間隔が他の部分における間隔よりも短くなる。これは、ガルバノミラー12のモータドライバ12bがモータ12aをサーボ制御するので、垂直走査範囲の上端付近及び下端付近においてモータ12aの回転速度乃至ガルバノミラー12の揺動速度が下がることに起因するものである。
Note that, in both cases of the forward path and the backward path, the scanning line interval is shorter near the upper end and lower end of the vertical scanning range than at other portions. This is because the
そして、走査光L1の元となるレーザ光Lは、先に説明したとおり、トリガー信号Stに基づいてLDドライバ1cが間欠的に発光させるので、上述した走査線上を走査光L1が走査する際には、走査線上の一定間隔毎の箇所で走査光L1が照射されることになる。例えば、図3(b)に示す復路の走査線上を走査光L1が走査する場合は、図4の説明図中の白丸によって模式的に示すように、走査線上の一定間隔おきのポイントP0〜Pnにおいて、走査範囲E(図2参照)に向けて走査光L1が照射されることになる。そして、走査範囲Eにおいて走査光L1が物体に照射されると、その物体からの反射光L2(の一部)が、レーザレーダヘッド5の投光窓Wに向かう。
As described above, since the
図1に示すように、前記受光部2は、投光窓Wを通過しガルバノミラー12及びポリゴンミラー11による反射で受光部2に導かれた反射光L2を集光する受光レンズ2aと、集光された反射光L2を受光して電圧に変換するフォトダイオード等の光電変換素子や増幅器等を有する受光部本体2bとを有している。そして、反射光L2を受光した受光部本体2bは、電圧値に変換された受光信号Srを信号処理部3に発信する。
As shown in FIG. 1, the light receiving unit 2 includes a
前記信号処理部3の時間計測部32は、時間を計測する時計機能を有しており、投光部1のLDドライバ1cからの投光同期信号Ssの受信により時間の計測を開始し、受光部2の受光部本体2bからの受光信号Srを受信した時間を把握する。したがって、時間計測部32では、走査光L1が投光部1から出射されてから、物体に照射された反射光L2が受光部2で受光されるまでの所要時間を計測することができる。また、時間計測部32は、受光信号Srから所望の受光強度を有する受光信号Srを選択する弁別機能や、受光信号Srのうち所要時間の短いものを除外するゲート機能を有していてもよい。かかる弁別機能やゲート機能により、ノイズを効率よく排除することができる。そして、時間計測部32は、弁別機能やゲート機能を通過した受光信号Srの受光強度信号Sq及び所要時間信号Sdを主信号処理部31に発信する。
The
前記信号処理部3の主信号処理部31は、投光部1のLDドライバ1cに対するトリガー信号Stの発信、ポリゴンミラー11及びガルバノミラー12のモータドライバ11b,12bに対する制御信号Smの発信、モータドライバ11b,12bからの投光条件信号Scの受信、時間計測部32からの信号(受光強度信号Sq及び所要時間信号Sd)の受信、計測データDの生成及び制御装置6に対する発信等の処理を行う。
The main
前記計測データD(請求項中の反射光のデータに相当)は、走査光L1及び反射光L2から得られたデータを含んでいる。具体的には、計測データDは、所要時間信号Sdを(光の速度)×(所要時間)/2の計算式により変換して得た、レーザレーダヘッド5から走査光L1の反射点までの距離を示す距離データと、時間計測部32からの受光強度信号Sqと、モータドライバ11b,12bからの投光条件信号Sc等を含んでいる。この計測データDは、各走査線上の各ポイントP0〜Pnについてそれぞれ生成される。主信号処理部31で生成された計測データDは、信号処理部3の不図示のバッファメモリに蓄積される。
The measurement data D (corresponding to the reflected light data in the claims) includes data obtained from the scanning light L1 and the reflected light L2. Specifically, the measurement data D is obtained from the
計測データDは、上述した不図示のバッファメモリに所定量蓄積される度に、例えばパケット通信によって制御装置6に出力される。このパケット通信1回で、図3(a),(b)に示す往路又は復路の走査線の1本分の走査光L1及び反射光L2から得られる計測データDか、それに近いデータ量の計測データDが、制御装置6に送信される。なお、計測データDは、どの走査線のどのポイントP0〜Pnについてのデータであるかを示すアドレス情報を含んでいる。
The measurement data D is output to the
前記制御装置6は、画像処理部61、故障診断部62、誤差補正部63等を有するコンピュータである。画像処理部61は、投光部1、ポリゴンミラー11、及び、ガルバノミラー12の制御条件Shを信号処理部3に発信している。この制御条件Shでは、ポリゴンミラー11の回転角度や回転速度、ガルバノミラー12の揺動角度や揺動速度、信号処理部3の主信号処理部31から投光部1のLDドライバ1cに対するレーザ光Lのトリガー信号Stの発信タイミング、等の条件が設定される。したがって、信号処理部3の主信号処理部31が発信する、LDドライバ1cのトリガー信号Stやモータドライバ11b,12bの制御信号Smの内容は、この制御条件Shに基づいて決定される。
The
また、画像処理部61は、信号処理部3から制御装置6が受信した走査範囲Eの1フレーム分の走査線に関する計測データDを解析し、その解析結果から、走査範囲Eに存在する物体を検出する。また、画像処理部61は、上述した解析結果を最新の過去複数フレーム分についての解析結果と照合して、走査範囲Eに存在する物体の静止又は移動状態を判定する。そして、制御装置6は物体の検出結果やその静止又は移動状態の判定結果を、ディスプレイ、プリンタ、警報機等の出力機器7に出力する。
Further, the image processing unit 61 analyzes the measurement data D relating to the scanning line for one frame in the scanning range E received by the
画像処理部61の上記の処理を実現するために、制御装置6はRAM64を内蔵している。このRAM64には、走査範囲Eの1フレーム分の走査線について、最新の計測データDをそれぞれ記憶する計測データ記憶領域64a(請求項中の反射光データ記憶手段に相当)と、過去の解析結果を記憶する解析結果記憶領域64bとが設けられている。
In order to realize the above processing of the image processing unit 61, the
計測データ記憶領域64aは、走査範囲Eの各走査線及び各ポイントP0〜Pnに対応するアドレスを有している。したがって、パケット通信により信号処理部3から制御装置6が計測データDを受信すると、受信した計測データDが、そのアドレス情報に示された走査線及びポイントP0〜Pnに対応する計測データ記憶領域64aのアドレス箇所に記憶される。なお、記憶先のアドレス箇所に既に計測データDが記憶されている場合は、受信した計測データDが最新のデータとして上書き記憶される。これにより、計測データ記憶領域64aには、走査範囲Eの1フレーム分の走査線に関する最新の計測データDが記憶されることになる。
The measurement data storage area 64a has addresses corresponding to the scanning lines of the scanning range E and the points P0 to Pn. Therefore, when the
解析結果記憶領域64bには、画像処理部61が計測データDの受信の度に受信した計測データDを解析して検出した走査線上に存在する物体のデータが、少なくとも最新の過去2フレーム分記憶される。 In the analysis result storage area 64b, the data of the object existing on the scanning line detected by analyzing the measurement data D received each time the image processing unit 61 receives the measurement data D is stored for at least the latest two frames. Is done.
また、故障診断部62では、信号処理部3の主信号処理部31が所要時間信号Sdから得た距離データの誤差を、レーザレーダヘッド5に設けた誤差検出用の装備(図示せず)を用いて算出し、その誤差が一定値を超えると故障信号を出力機器7に出力する。なお、故障診断部62には、上述した不図示の装備を用いて、信号処理部3の時間計測部32からの受光強度信号Sqが示す反射光L2の受光強度の誤差を検出し、その誤差が一定値を超えると故障信号を出力機器7に出力する機能を持たせることもできる。誤差補正部63では、故障診断部62による距離データの誤差を補正する補正値が算出される。この補正値は画像処理部61にフィードバックされ、画像処理部61による計測データD中の距離データの補正に用いられる。なお、誤差値を画像処理部61にフィードバックする代わりに、制御条件Shによって信号処理部3に通知して、制御装置6に出力する前の計測データD中の距離データを信号処理部3が補正するのに利用させるように構成してもよい。
In the
以上に説明した構成を有する制御装置6の画像処理部61は、往路又は復路の走査線上を走査範囲Eの全体に亘って走査する走査光L1とその反射光L2とから生成される計測データDを、走査範囲Eの1フレーム分単位で解析することで、走査範囲Eに存在する物体を検出する。そして、この検出を繰り返すことで、走査範囲Eに存在する物体の静止又は移動状態を判定する。
The image processing unit 61 of the
ここで、画像処理部61は、信号処理部3からのパケット通信1回分の計測データDに基づいて、その計測データDに対応する走査線上に存在する物体の検出を次のようにして行う。即ち、走査線の各ポイントP0〜Pnにおいて走査範囲Eに照射された走査光L1が、走査範囲Eの物体で反射されて、物体からの反射光L2が受光部2(図1参照)で受光された場合、連続するポイントP0〜Pnで照射された走査光L1の反射光L2が受光部2で受光されたらば、画像処理部61は、連続する前後の各ポイントP0〜Pnにおいて走査光L1が同一の物体で反射されたか否かを判定する。
Here, based on the measurement data D for one packet communication from the
この判定に当たり、画像処理部61は、前後の各ポイントP0〜Pnで走査光L1がそれぞれ反射された位置を、各走査光L1とそれに対応する各反射光L2とから生成された計測データDを用いて特定する。そして、特定した前後の各ポイントP0〜Pnに関する走査光L1の反射位置間の距離が、図5の説明図に示すように、X−Yの各方向(水平走査方向、垂直走査方向)において、いずれもそれぞれの閾値内である場合に、画像処理部61は、連続する前後の各ポイントP0〜Pnにおいて、走査光L1が同一の物体により反射されたものと判定する。反対に、X,Yの各方向のいずれかにおいて、各ポイントP0〜Pnに関する走査光L1の反射位置間の距離が、対応する方向の閾値を越えている場合に、画像処理部61は、連続する前後の各ポイントP0〜Pnにおいて、走査光L1が別々の物体によりそれぞれ反射されたものと判定する。 In this determination, the image processing unit 61 uses the measurement data D generated from each scanning light L1 and each reflected light L2 corresponding to the position where the scanning light L1 is reflected at each of the front and rear points P0 to Pn. Use to identify. The distance between the reflection positions of the scanning light L1 with respect to the specified points P0 to Pn before and after the specified position is determined in each of the XY directions (horizontal scanning direction and vertical scanning direction) as shown in the explanatory diagram of FIG. When both are within the respective threshold values, the image processing unit 61 determines that the scanning light L1 is reflected by the same object at each of the points P0 to Pn before and after consecutive. On the other hand, when the distance between the reflection positions of the scanning light L1 with respect to each point P0 to Pn exceeds the threshold value in the corresponding direction in any of the X and Y directions, the image processing unit 61 continuously At the points P0 to Pn before and after the scanning, it is determined that the scanning light L1 is reflected by different objects.
このような判定を行うのは、連続する前後の各ポイントP0〜Pnにそれぞれ照射された走査光L1が、降雪時に別々の雪片で反射されて、受光部21に連続して受光された場合に、同一物体による反射光L2であると誤判定するのを防ぐためである。また、レーザレーダヘッド5から離れるほど、隣り合うポイントP0〜Pn間の距離が遠くなることから、上述したX,Y各方向の閾値は、計測データDの距離データによって示される、レーザレーダヘッド5から走査光L1の反射点までの距離に応じて、異なる値に設定される。
Such a determination is made when the scanning light L1 irradiated to the respective points P0 to Pn before and after the continuous is reflected by different snowflakes during snowfall and continuously received by the light receiving unit 21. This is to prevent erroneous determination of the reflected light L2 from the same object. Further, since the distance between the adjacent points P0 to Pn increases as the distance from the
具体的には、レーザレーダヘッド5から走査光L1の反射点までの距離λを雪計測最大距離の2倍で除した定数α(α=λ÷(2×雪計測最大距離))が、雪片による走査光L1の反射光L2を受光部2で受光できる「1」未満であるか、それとも、受光できない「1」以上であるかによって、上述したX,Y各方向の閾値を異なる値に設定する。なお、雪計測最大距離とは、雪片で反射された走査光L1の反射光L2を受光部2で受光できる最大距離のことである。この雪計測最大距離は、雪片の反射率や受光部2の受光感度に依存して定まるが、定量的に決定できない場合は、経験的又は実験的に定めた値に設定することができる。
Specifically, a constant α (α = λ ÷ (2 × maximum snow measurement distance)) obtained by dividing the distance λ from the
そして、上述した定数αが1未満である場合は、X方向の閾値を、大きさ補正値[幅]の2倍に定数αを乗じた値とし、Y方向の閾値を、近距離検出長さに設定する。一方、定数αが1以上である場合は、X方向の閾値を、大きさ補正値[幅]の2倍の値とし、Y方向の閾値を、大きさ補正値[長さ]とする。 If the constant α is less than 1, the threshold value in the X direction is set to a value obtained by multiplying the size correction value [width] by twice the constant α, and the threshold value in the Y direction is set as the short distance detection length. Set to. On the other hand, when the constant α is 1 or more, the threshold value in the X direction is set to a value twice the size correction value [width], and the threshold value in the Y direction is set as the size correction value [length].
ここで、X方向の閾値に用いられる大きさ補正値[幅]は、走査光L1及び反射光L2による物体の検出が可能な最大距離(本実施形態では30m)における、隣り合うポイントP0〜Pn間の距離(本実施形態では0.2m)に設定される。 Here, the size correction value [width] used for the threshold value in the X direction is the adjacent points P0 to Pn at the maximum distance (30 m in the present embodiment) at which the object can be detected by the scanning light L1 and the reflected light L2. The distance between the two is set to 0.2 m in this embodiment.
また、Y方向の閾値に用いられる近距離検出長さは、検出対象の物体が車両である場合を想定して、車両の平均的なフロントガラスやリアガラスの高さ方向の寸法(本実施形態では0.5m)に設定される。この近距離検出長さは、車両のボンネットやトランク部分とルーフ部分とが別々の物体であると誤判定されないようにするために用いられる。即ち、車両のボンネットやトランク部分では走査光L1の反射光L2が受光部2で受光されるが、フロントガラスやリアガラス部分では走査光L1が反射されないので反射光L2が受光部2で受光されず、その後、ルーフ部分では再び走査光L1の反射光L2が受光部2で受光された時に、ボンネットやトランク部分とルーフ部分とが別々の物体であると誤認識されてしまうからである。 In addition, the short distance detection length used for the threshold value in the Y direction assumes the case where the object to be detected is a vehicle, and is the dimension in the height direction of the average windshield and rear glass of the vehicle (in this embodiment, 0.5m). This short distance detection length is used in order to prevent erroneous determination that the hood, trunk portion and roof portion of the vehicle are separate objects. That is, the reflected light L2 of the scanning light L1 is received by the light receiving unit 2 at the hood or trunk portion of the vehicle, but the reflected light L2 is not received by the light receiving unit 2 because the scanning light L1 is not reflected by the windshield or rear glass portion. After that, when the reflected light L2 of the scanning light L1 is received again by the light receiving unit 2 at the roof portion, the bonnet, the trunk portion, and the roof portion are erroneously recognized as separate objects.
さらに、Y方向の閾値に用いられる大きさ補正値[長さ]は、検出対象の物体の奥行きに関する基準値(本実施形態では1m)の2倍の値に設定される。この大きさ補正値[長さ]は、計測データDによって検出対象の物体の奥行きを計測できないために用いられるもので、上述した定数αが、雪片による走査光L1の反射光L2を受光部2で受光できない「1」以上の時に使用される。 Further, the size correction value [length] used for the threshold value in the Y direction is set to a value twice the reference value (1 m in the present embodiment) relating to the depth of the object to be detected. The magnitude correction value [length] is used because the depth of the object to be detected cannot be measured by the measurement data D. The constant α described above receives the reflected light L2 of the scanning light L1 from the snowflakes as the light receiving unit 2. It is used when “1” or more cannot be received.
上述した閾値を用いて、連続して受光部2により受光された反射光L2が、走査線上に存在する同一の物体からの反射光L2である否かを判定する。そして、図6の説明図に示すように、反射光L2が1回以上間をおいて、複数回ずつ連続して(グループ1、グループ2)受光部2でそれぞれ受光され、それぞれの複数回連続して受光部2で受光された反射光L2が、それぞれ同一の物体からの反射光L2であると判定された場合は、反射光L2が受光部2で受光されなかったポイントを挟んで、その前後に複数回ずつ連続してそれぞれ受光部2で受光された反射光L2が、別々の物体からの反射光L2であると認識する。 Using the threshold value described above, it is determined whether or not the reflected light L2 continuously received by the light receiving unit 2 is reflected light L2 from the same object existing on the scanning line. Then, as shown in the explanatory diagram of FIG. 6, the reflected light L2 is received by the light receiving unit 2 continuously for a plurality of times (group 1, group 2) at least once, and continuously for a plurality of times. When it is determined that the reflected light L2 received by the light receiving unit 2 is reflected light L2 from the same object, the point where the reflected light L2 is not received by the light receiving unit 2 is sandwiched. It is recognized that the reflected light L2 received by the light receiving unit 2 continuously several times before and after is reflected light L2 from different objects.
このようにして、走査線上の同一の物体からの反射光L2であるか否かの判別を行った後、画像処理部61は、走査線上の物体の平面形状を特定する。物体の平面形状の特定に当たり、走査線上の同一の物体からの反射光L2であると認識されたポイントP0〜Pnが1点である場合に、画像処理部61は、そのポイントP0〜Pnを中心としてX方向(水平走査方向)にそれぞれ大きさ補正値[幅]の幅を有し、Y方向(垂直走査方向)に大きさ補正値[長さ]の奥行きを有し、Z方向(天地方向)にそのポイントP0〜Pnを頂点とする高さを有する物体としてデータ化される。また、走査線上の同一の物体からの反射光L2であると認識されたポイントP0〜Pnが複数点である場合に、画像処理部61は、X方向(水平走査方向)の両端のポイントP0〜Pn間の幅を有し、Y方向(垂直走査方向)における最もレーザレーダヘッド5寄りのポイントポイントP0〜Pnから大きさ補正値[長さ]分の奥行きを有し、Z方向(天地方向)における最も高い位置のポイントP0〜Pnを頂点とする高さを有する物体としてデータ化される。
Thus, after determining whether or not the reflected light L2 is from the same object on the scanning line, the image processing unit 61 specifies the planar shape of the object on the scanning line. In specifying the planar shape of the object, when the points P0 to Pn recognized as the reflected light L2 from the same object on the scanning line are one point, the image processing unit 61 centers the points P0 to Pn. Each having a width of the size correction value [width] in the X direction (horizontal scanning direction), a depth of the size correction value [length] in the Y direction (vertical scanning direction), and the Z direction (vertical direction) ) Is converted into data as an object having a height with the points P0 to Pn as vertices. In addition, when there are a plurality of points P0 to Pn recognized as the reflected light L2 from the same object on the scanning line, the image processing unit 61 sets the points P0 to P0 at both ends in the X direction (horizontal scanning direction). It has a width between Pn, has a depth corresponding to a size correction value [length] from the point points P0 to Pn closest to the
また、画像処理部61は、前回のパケット通信で信号処理部3から受信した計測データDに基づいて特定した物体(前回特定した物体)と、今回のパケット通信で信号処理部3から受信した計測データDに基づいて特定した物体(今回特定した物体)との異同を、次のようにして判断する。即ち、図7に示すように、前回特定した物体と今回特定した物体とがX−Yの各方向で一部でも重なる場合は、それら2つの物体を合成して1つの物体として認識する。さらに、合成後の物体が、今回特定した物体又は前回特定した物体と、X−Yの各方向で一部でも重なる場合は、それら2つの物体をさらに合成して1つの物体として認識する。このようにして2つの物体を合成する場合、1つに合成した後の物体は、合成する前の2つの物体のポイントP0〜Pnのうち、X方向(水平走査方向)における最も両端のポイントP0〜Pn間の幅を有し、Y方向(垂直走査方向)における最も両端のポイントP0〜Pn間の奥行きを有し、Z方向(天地方向)における最も高い位置のポイントP0〜Pnを頂点とする高さを有する物体としてデータ化される。
In addition, the image processing unit 61 determines the object (the object specified last time) identified based on the measurement data D received from the
そして、画像処理部61は、走査範囲Eの1フレーム分の走査線に関する計測データDについて上述の処理を行う解析を実行することで、走査範囲Eに存在する物体を検出することができる。さらに、画像処理部61は、このような解析を周期的に繰り返し、かつ、前回の解析で検出した物体と今回の解析で検出した物体との異同を、図7に示す方法と同じような方法を用いて判断する。即ち、前回の解析で検出した物体の周囲に、その物体が移動しそうな範囲を示す領域を加え、この領域に、今回の解析で検出した物体が、X−Yの各方向で一部でも重なる場合は、同一の物体として認識する。万一、前回の解析で検出した複数の物体が今回の解析で検出した物体に重なる場合は、今回の解析で検出した物体に近い方の物体と合成したり、より以前の解析から検出されていた物体と優先して合成したり、何らかの条件に基づいて合成する相手の物体を決めるようにすればよい。 Then, the image processing unit 61 can detect an object existing in the scanning range E by executing an analysis for performing the above-described processing on the measurement data D related to the scanning line for one frame in the scanning range E. Further, the image processing unit 61 periodically repeats such an analysis, and the difference between the object detected in the previous analysis and the object detected in the current analysis is similar to the method shown in FIG. Judge using In other words, an area indicating the range in which the object is likely to move is added around the object detected in the previous analysis, and the object detected in the current analysis partially overlaps in this area in each of the XY directions. In the case, they are recognized as the same object. In the unlikely event that multiple objects detected in the previous analysis overlap the objects detected in the current analysis, they may be combined with an object closer to the object detected in the current analysis or may have been detected from a previous analysis. The object to be synthesized may be preferentially synthesized, or the partner object to be synthesized may be determined based on some condition.
ところで、計測データDの解析による走査範囲Eの物体の検出は、上述したように走査範囲Eの1フレーム分の計測データDを用いて行われる。そこで、走査範囲Eの全走査線上を走査光L1が往路又は復路で走査し終える垂直走査範囲の上端又は下端を、走査範囲Eの1フレーム分の計測データDが得られる区切りとし、その度に物体検出を行うことが考えられる。 By the way, the detection of the object in the scanning range E by the analysis of the measurement data D is performed using the measurement data D for one frame in the scanning range E as described above. Therefore, the upper end or lower end of the vertical scanning range where the scanning light L1 finishes scanning in the forward path or the backward path on all the scanning lines of the scanning range E is defined as a segment from which the measurement data D for one frame of the scanning range E is obtained. It is conceivable to perform object detection.
しかし、走査光L1が走査する走査線が垂直走査範囲の上端又は下端に達するガルバノミラー12の揺動端付近では、揺動用のモータ12aがサーボ制御されることに起因して不安定な動作が発生することがある。そして、この不安定動作により、ガルバノミラー12の揺動端や走査光L1の垂直走査範囲における上端又は下端をセンサ等で検出する際に、誤検出する可能性が生じる。このような誤検出が生じると、走査範囲Eの1フレーム分の計測データDを正確に取得して、走査範囲Eに存在する物体の検出を正しく行うことができない。
However, in the vicinity of the oscillating end of the
そこで、本実施形態の制御装置6の画像処理部61では、走査範囲Eに存在する走査線の数(本実施形態では、往路復路とも50本)よりも少ない本数の走査線を走査光L1が走査する度に、最後に走査光L1が走査した走査線を含めて最新の過去50本(1フレーム分)の走査線上を走査した走査光L1の反射光L2に基づいて、走査範囲Eに存在する物体の検出を行う。
In view of this, in the image processing unit 61 of the
詳しくは、画像処理部61は、往路又は復路の走査線の1本分の走査光L1及び反射光L2から得られる計測データDか、それに近いデータ量の計測データDを、信号処理部3から制御装置6が1回のパケット通信で受信する度に、その計測データDを含む、RAM64の計測データ記憶領域64aに記憶された走査範囲Eの1フレーム分の走査線に関する最新の計測データDを用いて、走査範囲Eに存在する物体の検出を行う。
Specifically, the image processing unit 61 sends the measurement data D obtained from the scanning light L1 and the reflected light L2 for one scanning line of the forward path or the return path from the
なお、1回のパケット通信により制御装置6が信号処理部3から受信する計測データDのデータ量が、走査線の1本分の計測データDのデータ量と一致しない場合は、1回のパケット通信によって受信された最新の計測データDが、計測データ記憶領域64aの2つの走査線に跨るアドレス箇所に記憶されたり、1つの走査線の一部のアドレス箇所のみに記憶される場合がある。
If the data amount of the measurement data D received by the
このような場合は、走査線の水平走査方向における終端に対応するアドレス箇所に最新の計測データDが記憶された走査線を含む、RAM64の計測データ記憶領域64aに記憶された走査範囲Eの1フレーム分の走査線に関する最新の計測データDを用いて、走査範囲Eに存在する物体の検出を行う。 In such a case, 1 of the scanning range E stored in the measurement data storage area 64a of the RAM 64 including the scanning line in which the latest measurement data D is stored at the address location corresponding to the end of the scanning line in the horizontal scanning direction. An object existing in the scanning range E is detected using the latest measurement data D relating to the scanning lines for the frames.
次に、制御装置6が行う走査範囲Eの物体検出及び検出物体の静止又は移動状態の判定に関する処理を、図8のフローチャートを参照して説明する。
Next, processing relating to the detection of the object in the scanning range E performed by the
まず、制御装置6は、パケット通信により制御装置6が信号処理部3からの計測データDを受信したか否かを確認する(ステップS11)。受信していない場合は(ステップS11でNO)、ステップS11をリピートする。受信した場合は(ステップS11でYES)、受信した計測データDを、その計測データDのアドレス情報に示された走査線及びポイントP0〜Pnに対応する計測データ記憶領域64aのアドレス箇所に記憶させる(ステップS12)。
First, the
次に、制御装置6は、ステップS11で受信した計測データDのアドレス情報に示された走査線上に存在する物体を検出させる(ステップS13)。この物体検出は、ステップS11で受信した計測データDに対して図5乃至図7を参照して説明した処理を画像処理部61に行わせることで行う。また、この物体検出の際に画像処理部61は、以前に受信した計測データDのアドレス情報に示された走査線上に存在することを既に検出した物体との異同の判断も行う。そして、制御装置6は、画像処理部61が検出した物体の位置や大きさのデータを、解析結果記憶領域64bに最新の物体検出データとして記憶させる(ステップS14)。このとき同時に、解析結果記憶領域64bの最も古い物体検出データが削除される。さらに、制御装置6は、解析結果記憶領域64bに記憶された最新の1フレーム分の物体検出データと、その直前の1フレーム分の物体検出データとの照合により、検出した物体の静止又は移動状態を画像処理部61に判定させる(ステップS15)。
Next, the
そして、制御装置6は、画像処理部61による物体の検出結果やその静止又は移動状態の判定結果を出力機器7に出力する(ステップS16)。以上で一連の処理を終了し、以後、制御装置6は、上述したステップS11乃至ステップS16の処理を繰り返し実行する。
Then, the
以上の説明からも明らかなように、本実施形態の物体検出装置では、図8のフローチャートにおけるステップS13が、請求項中の制御手段に対応する処理となっている。また、本実施形態の物体検出装置では、制御装置6の画像処理部61が、請求項中の物体検出手段に相当している。
As is clear from the above description, in the object detection apparatus of this embodiment, step S13 in the flowchart of FIG. 8 is processing corresponding to the control means in the claims. Further, in the object detection device of the present embodiment, the image processing unit 61 of the
ちなみに、上述した構成の物体検出装置のレーザレーダヘッド5を、図2に示すように踏切Aの近傍の支柱Bに設置すると、図9の平面図に示すように、走査光L1の走査範囲Eが踏切Aの車両や通行人(いずれも図示せず)が立ち入るエリアの全体をカバーすることになる。そして、本実施形態の物体検出装置では、走査光L1の走査範囲Eのうち不図示の車両や通行人の通行可能なエリアを、走査光L1(の反射光L2)によって障害物の存在を監視する監視領域Fとしている。したがって、制御装置6は、上述した図8のフローチャートによる処理を実行することで、実際には、監視領域Fに存在する障害物の検出と、その障害物の静止又は移動状態の判定とを行うことになる。
Incidentally, when the
なお、上述した監視領域Fは線路面に沿った平面をXY座標面とする直交座標系における領域である。これに対して、走査光L1の反射光L2によって測定される物体の位置は、レーザレーダヘッド5を原点とし走査光L1の走査範囲Eを含む空間の極座標系における位置である。そのため、上述した制御装置6の画像処理部61は、計測データDの解析結果から検出した物体の位置を、レーザレーダヘッド5を原点とする極座標系上の位置から、監視領域Fを含む直交座標系上の位置に変換する。これにより、走査光L1の反射光L2に基づいて生成された計測データDから、監視領域Fにおける障害物の位置及び高さを検出し、また、障害物の静止又は移動状態を判定することができる。
In addition, the monitoring area | region F mentioned above is an area | region in the orthogonal coordinate system which makes the plane along a track surface the XY coordinate plane. On the other hand, the position of the object measured by the reflected light L2 of the scanning light L1 is a position in the polar coordinate system of the space including the scanning range E of the scanning light L1 with the
そして、上述した構成による本実施形態の物体検出装置では、信号処理部3で生成された計測データDを制御装置6がパケット通信により受信して、その計測データDを計測データ記憶領域64aの対応するアドレス箇所に記憶させる度に、解析結果記憶領域64bに記憶された物体検出データを用いて、監視領域Fに存在する障害物(走査範囲Eに存在する物体の検出)の検出を行う。但し、この検出には、走査線単位で計測データDが必要となる。したがって、最新の計測データDを計測データ記憶領域64aに記憶させた後の段階で、水平走査方向における終端のアドレス箇所にまで計測データDが記憶され終えていない走査線の計測データDは、監視領域Fの障害物検出に使用しない。
In the object detection device of the present embodiment having the above-described configuration, the
なお、1回のパケット通信により制御装置6が信号処理部3から受信する計測データDのデータ量が、走査線の1本分の計測データDのデータ量と一致する場合は、計測データDが受信される度に、計測データ記憶領域64aの各走査線の計測データDが1本ずつ順次最新のデータに更新されることになる。このため、制御装置6の画像処理部61は、最新の計測データDが走査線単位で受信される度に、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行うことになる。
In addition, when the data amount of the measurement data D received by the
したがって、ガルバノミラー12の揺動端や走査光L1の垂直走査範囲における上端又は下端をセンサ等で検出して、その検出タイミングを、走査範囲Eの1フレーム分の走査線に関する最新の計測データDが信号処理部3から入力される区切りとして利用する必要がない。そのため、ガルバノミラー12の揺動端や走査光L1の垂直走査範囲における上端又は下端の誤検出の可能性を考慮することなく、走査範囲Eの1フレーム分の走査線に関する最新の計測データDから検出した物体のデータを正確に利用して、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を正しく行うことができる。
Therefore, the oscillating end of the
なお、本発明の物体検出方法を実施するための構成は、本実施形態で説明した物体検出装置の構成に限定されない。例えば、制御装置6が受信する計測データDや、計測データDを用いて検出した物体のデータは、必ずしもRAM64の計測データ記憶領域64aや解析結果記憶領域64bのような構成のメモリに記憶させなくてもよい。さらに、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出手順は、図8のフローチャートに示した手順に限定されない。
The configuration for carrying out the object detection method of the present invention is not limited to the configuration of the object detection device described in the present embodiment. For example, measurement data D received by the
例えば、本実施形態では、制御装置6の画像処理部61が監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行う周期を、信号処理部3からの計測データDをパケット通信により受信する度(計測データ記憶領域64aの各走査線の計測データDが1本ずつ順次最新のデータに更新される度)とした。
For example, in the present embodiment, the period in which the image processing unit 61 of the
しかし、信号処理部3からの計測データDが、パケット通信の所定回数分受信される度(計測データ記憶領域64aの各走査線の計測データDが所定本数分ずつ最新のデータに更新される度)に、制御装置6の画像処理部61が、受信した所定本数分の走査線に対応する計測データDからそれらの走査線上に存在する物体の検出を行い、さらに、最新の1フレーム分の物体検出データを用いて、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行うように構成してもよい。
However, every time the measurement data D from the
このように構成すれば、本実施形態の物体検出装置と同様の効果が得られる他、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出頻度が下がるので、制御装置6の処理的な負担を軽減できるという効果を得ることもできる。一方、本実施形態の物体検出装置のような構成とすれば、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出頻度が高い分、障害物(物体)の静止又は移動状態を高い分解能で判定することができる。 With this configuration, the same effect as that of the object detection device of the present embodiment can be obtained, and the frequency of detecting obstacles (objects existing in the scanning range E) existing in the monitoring region F is reduced. It is also possible to obtain an effect of reducing the processing burden. On the other hand, if the configuration of the object detection device of the present embodiment is adopted, the obstacle (object) is stationary or moved as the obstacle (object present in the scanning range E) in the monitoring area F is detected more frequently. The state can be determined with high resolution.
いずれにせよ、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行う周期は、以上に説明した周期に限らず、ガルバノミラー12が揺動端に達するタイミング(走査光L1が垂直走査範囲における上端又は下端の走査線を走査し終えるタイミング)と無関係である限り、任意の周期とすることができる。
In any case, the period for detecting the obstacle present in the monitoring region F (the object present in the scanning range E) is not limited to the above-described period, but the timing at which the
また、本実施形態では、踏切Aの近傍の支柱Bにレーザレーダヘッド5を設置して、踏切Aの車両Cや通行人(図示せず)の通行可能な監視領域Fにおける障害物の存在を検出する場合について説明した。しかし、本発明は、踏切Aに限らず、物体の存在を監視する必要のある種々の監視領域を走査光の反射光によって監視する場合に、広く適用可能である。
Further, in the present embodiment, the
1 投光部
1a レーザダイオード
1b 投光レンズ
1c LDドライバ
2 受光部
2a 受光レンズ
2b 受光部本体
3 信号処理部
5 レーザレーダヘッド
6 制御装置
7 出力機器
11 ポリゴンミラー
11a モータ
11b モータドライバ
12 ガルバノミラー
12a モータ
12b モータドライバ
31 主信号処理部
32 時間計測部
61 画像処理部
62 故障診断部
63 誤差補正部
64 RAM
64a 計測データ記憶領域
64b 解析結果記憶領域
A 踏切
B 支柱
C 車両
D 計測データ
E 走査範囲
F 監視領域
L レーザ光
L1 走査光
L2 反射光
P0〜Pn ポイント
Sc 投光条件信号
Sd 所要時間信号
Sh 制御条件
Sm 制御信号
Sq 受光強度信号
Sr 受光信号
Ss 投光同期信号
St トリガー信号
W 投光窓
DESCRIPTION OF SYMBOLS 1
64a Measurement data storage area 64b Analysis result storage area A Railroad crossing B Post C Vehicle D Measurement data E Scanning range F Monitoring area L Laser light L1 Scanning light L2 Reflected light P0 to Pn Point Sc Projection condition signal Sd Required time signal Sh Control condition Sm Control signal Sq Light reception intensity signal Sr Light reception signal Ss Light emission synchronization signal St Trigger signal W Light emission window
Claims (4)
前記監視領域上に位置する走査線の本数とは異なる所定本数の走査線上を前記走査光が走査する度に、前記各走査線の最新の走査光の反射光に基づいて、前記監視領域に存在する物体を検出する、
ことを特徴とする物体検出方法。 In a method of scanning an entire monitoring area with scanning light that sequentially scans a plurality of scanning lines, and detecting an object existing in the monitoring area by reflected light of each scanning light,
Each time the scanning light scans a predetermined number of scanning lines different from the number of scanning lines located on the monitoring area, it exists in the monitoring area based on the reflected light of the latest scanning light of each scanning line. Detect objects to
An object detection method characterized by the above.
前記監視領域上に位置する前記各走査線上をそれぞれ走査した前記各走査光の反射光に基づいて、前記監視領域に存在する物体を検出する物体検出手段と、
前記監視領域上に位置する前記各走査線上をそれぞれ走査した最新の前記走査光の反射光のデータを記憶する反射光データ記憶手段と、
前記監視領域上に位置する走査線の本数とは異なる所定本数の走査線上を前記走査光が走査する度に、前記反射光データ記憶手段に記憶された前記各走査線上を走査した最新の前記各走査光の反射光のデータに基づいて、前記物体検出手段により前記監視領域に存在する物体を検出させる制御手段と、
を備えることを特徴とする物体検出装置。 A laser radar that scans the entire monitoring area with scanning light that sequentially scans a plurality of scanning lines;
Object detection means for detecting an object present in the monitoring area based on the reflected light of each scanning light scanned on each scanning line located on the monitoring area;
Reflected light data storage means for storing the latest reflected light data of the scanning light respectively scanned on the scanning lines located on the monitoring area;
Each time the scanning light scans a predetermined number of scanning lines different from the number of scanning lines located on the monitoring area, each of the latest scanning lines stored on the reflected light data storage means is scanned. Control means for detecting an object present in the monitoring area by the object detection means based on data of reflected light of the scanning light;
An object detection apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009278639A JP2011122851A (en) | 2009-12-08 | 2009-12-08 | Method and device for detecting object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009278639A JP2011122851A (en) | 2009-12-08 | 2009-12-08 | Method and device for detecting object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011122851A true JP2011122851A (en) | 2011-06-23 |
Family
ID=44286893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009278639A Pending JP2011122851A (en) | 2009-12-08 | 2009-12-08 | Method and device for detecting object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011122851A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013095587A (en) * | 2011-11-07 | 2013-05-20 | Daifuku Co Ltd | Article input facility and method for detecting overflow of article from article collection container in the same |
JP2017015416A (en) * | 2015-06-29 | 2017-01-19 | 株式会社リコー | Object detection device, sensing device, movable body device, and object detection method |
JP2017032359A (en) * | 2015-07-30 | 2017-02-09 | 株式会社ユーシン | Optical radar device, on-vehicle radar device and infrastructure radar device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002140790A (en) * | 2000-10-31 | 2002-05-17 | Natl Inst For Land & Infrastructure Management Mlit | Method for detecting crossing pedestrian |
JP2004198323A (en) * | 2002-12-19 | 2004-07-15 | Denso Corp | Object recognition device for vehicle |
JP2004212129A (en) * | 2002-12-27 | 2004-07-29 | Ishikawajima Harima Heavy Ind Co Ltd | Environmental condition grasping device |
JP2004280372A (en) * | 2003-03-14 | 2004-10-07 | Natl Inst For Land & Infrastructure Management Mlit | Detection method of moving body |
JP2009072280A (en) * | 2007-09-19 | 2009-04-09 | Fujifilm Corp | Optical tomography imaging system, contact area detecting method, and image processing method using the same |
-
2009
- 2009-12-08 JP JP2009278639A patent/JP2011122851A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002140790A (en) * | 2000-10-31 | 2002-05-17 | Natl Inst For Land & Infrastructure Management Mlit | Method for detecting crossing pedestrian |
JP2004198323A (en) * | 2002-12-19 | 2004-07-15 | Denso Corp | Object recognition device for vehicle |
JP2004212129A (en) * | 2002-12-27 | 2004-07-29 | Ishikawajima Harima Heavy Ind Co Ltd | Environmental condition grasping device |
JP2004280372A (en) * | 2003-03-14 | 2004-10-07 | Natl Inst For Land & Infrastructure Management Mlit | Detection method of moving body |
JP2009072280A (en) * | 2007-09-19 | 2009-04-09 | Fujifilm Corp | Optical tomography imaging system, contact area detecting method, and image processing method using the same |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013095587A (en) * | 2011-11-07 | 2013-05-20 | Daifuku Co Ltd | Article input facility and method for detecting overflow of article from article collection container in the same |
JP2017015416A (en) * | 2015-06-29 | 2017-01-19 | 株式会社リコー | Object detection device, sensing device, movable body device, and object detection method |
JP2017032359A (en) * | 2015-07-30 | 2017-02-09 | 株式会社ユーシン | Optical radar device, on-vehicle radar device and infrastructure radar device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9891432B2 (en) | Object detection device and sensing apparatus | |
EP3111165B1 (en) | Distance measuring device and parallax calculation system | |
JP4691701B2 (en) | Number detection device and method | |
JP3838432B2 (en) | Ranging device | |
US9207074B2 (en) | Distance measurement apparatus, and distance measurement method | |
JP4882428B2 (en) | Environment recognition device | |
JP6726673B2 (en) | Information processing device, information processing method, and program | |
JP5246430B2 (en) | Obstacle detection method and apparatus | |
JP5716902B2 (en) | Monitoring method and monitoring apparatus | |
JP6824697B2 (en) | Object detection device and object detection method for traveling objects | |
JP2013029375A (en) | Obstacle detection method and obstacle detection device | |
JP5320880B2 (en) | Distance measuring device, distance measuring method and vehicle | |
JP2011122851A (en) | Method and device for detecting object | |
JP6252722B2 (en) | Laser distance measuring method and laser distance measuring apparatus | |
JP2021043838A (en) | Information processing device, control method, program and storage medium | |
JP5556317B2 (en) | Object recognition device | |
JP2011106829A (en) | Method for detecting moving body, and laser apparatus for measuring distance | |
JP2019028039A (en) | Distance measurement device and distance measurement method | |
WO2022190364A1 (en) | Information processing device, information processing method, program, and storage medium | |
JP2010044496A (en) | Method and device for detecting vehicle | |
JP2008286767A (en) | Space measuring device for vehicle | |
JP2010249569A (en) | Obstacle detection method and laser distance measuring instrument | |
JP4811614B2 (en) | Obstacle detection method and apparatus | |
KR20220025894A (en) | A lidar measurement system comprising two lidar measurement devices | |
JP6749191B2 (en) | Scanner and surveying equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131217 |