JP2011122851A - Method and device for detecting object - Google Patents

Method and device for detecting object Download PDF

Info

Publication number
JP2011122851A
JP2011122851A JP2009278639A JP2009278639A JP2011122851A JP 2011122851 A JP2011122851 A JP 2011122851A JP 2009278639 A JP2009278639 A JP 2009278639A JP 2009278639 A JP2009278639 A JP 2009278639A JP 2011122851 A JP2011122851 A JP 2011122851A
Authority
JP
Japan
Prior art keywords
scanning
light
processing unit
monitoring area
reflected light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009278639A
Other languages
Japanese (ja)
Inventor
Akira Igarashi
亮 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2009278639A priority Critical patent/JP2011122851A/en
Publication of JP2011122851A publication Critical patent/JP2011122851A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve accurate object detection using data related to the reflected light of a scanning light corresponding to an entire monitored area, without using the scanning position of the scanning light on the monitored area as a reference. <P>SOLUTION: The method for detecting an object includes: a step of receiving measured data D generated by a signal processing unit 3 with a control device 6 by packet communication; a step of detecting an object existing on the scanning lines from the measured data D corresponding to the received scanning lines of predetermined number, each time the measured data D are stored in a corresponding address location of a measured data memory area 64a; and a step of detecting the object existing in a scanned range E using the latest 1 frame equivalent object detection data stored in an analysis result memory area 64b. The data amount of the measured data D received by the control device 6 from the signal processing unit 3 by one packet communication can be the data amount coinciding to the measured data D equivalent to one scanning line. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、例えば踏切内のような監視領域に存在する物体を検出する方法及びその装置に関するものである。   The present invention relates to a method and an apparatus for detecting an object existing in a monitoring area such as in a railroad crossing.

測距用の走査光により3次元空間を主走査方向及び副走査方向に走査させ、その反射光を解析することで、監視領域に存在する物体を検出する技術は、踏切内の障害物検出の分野でも利用されている(例えば、特許文献1)。   The technology for detecting objects in the monitoring area by scanning the three-dimensional space with the scanning light for distance measurement in the main scanning direction and the sub-scanning direction and analyzing the reflected light It is also used in the field (for example, Patent Document 1).

走査光を主走査方向及び副走査方向に走査させるには、一般的に、ポリゴンミラーとガルバノミラーが組み合わせて用いられる。その場合は、例えばレーザ光源等の光源から出射された走査光をポリゴンミラーで主走査方向に走査させ、さらに、この主走査方向への走査光をガルバノミラーで副走査方向に走査させることになる。   In order to scan the scanning light in the main scanning direction and the sub-scanning direction, a polygon mirror and a galvanometer mirror are generally used in combination. In this case, for example, scanning light emitted from a light source such as a laser light source is scanned in the main scanning direction by a polygon mirror, and further, scanning light in the main scanning direction is scanned in the sub scanning direction by a galvano mirror. .

特許第4279302号公報Japanese Patent No. 4279302

上述した走査光の反射光を解析して物体検出を行うには、走査光の反射光に関するデータが監視領域の全体分必要となる。そこで、副走査方向における走査光の走査端を区切りとして、走査光の反射光に関するデータを監視領域の全体分取得することが考えられる。   In order to detect an object by analyzing the reflected light of the scanning light described above, data relating to the reflected light of the scanning light is required for the entire monitoring region. Therefore, it is conceivable to acquire the data related to the reflected light of the scanning light for the entire monitoring area with the scanning end of the scanning light in the sub-scanning direction as a break.

副走査方向における走査光の走査端は、ガルバノミラーの揺動端をセンサにより物理的に検出したり、モータの駆動信号から算出される制御上のガルバノミラーの揺動位置が変化しなくなったことを検出することで、認識することができる。しかし、モータがサーボ制御によりガルバノミラーの揺動端付近で回転速度を落とすと、ガルバノミラーが軸受の摩擦により揺動端付近で瞬間的に停止し、その後、本来の揺動端まで再び僅かに揺動することがある。このような、揺動端の手前におけるガルバノミラーの瞬間的な停止が発生すると、ガルバノミラーが揺動端に達したとの誤検出が発生し、走査光が副走査方向における走査端に達したものと誤って認識されてしまう場合がある。   As for the scanning end of the scanning light in the sub-scanning direction, the oscillating end of the galvano mirror is physically detected by a sensor, and the oscillating position of the control galvano mirror calculated from the drive signal of the motor no longer changes. Can be recognized. However, if the motor reduces the rotation speed near the oscillating end of the galvano mirror by servo control, the galvano mirror stops instantaneously near the oscillating end due to the friction of the bearing, and then slightly again to the original oscillating end. May swing. When such a momentary stop of the galvano mirror before the swing end occurs, an erroneous detection that the galvano mirror has reached the swing end occurs, and the scanning light reaches the scanning end in the sub-scanning direction. It may be mistakenly recognized as a thing.

したがって、走査光の副走査方向における走査端を、走査光の反射光による物体検出の区切りに用いるには、上述したような誤検出の可能性に備えた対策を講じる必要がある。そのような対策を講じることは、副走査方向における走査光の走査端を認識するための構成を複雑なものとしてしまうことにつながる。   Therefore, in order to use the scanning end of the scanning light in the sub-scanning direction for the detection of the object detection by the reflected light of the scanning light, it is necessary to take measures for the possibility of erroneous detection as described above. Taking such measures leads to a complicated configuration for recognizing the scanning end of the scanning light in the sub-scanning direction.

このように、監視領域上における走査光の位置を検出して、それを基準に、監視領域の全体分に応じた走査光の反射光に関するデータを取得するようにすると、監視領域上における走査光の位置検出精度の影響を受けないようにする対策が不可欠となる。   As described above, when the position of the scanning light on the monitoring area is detected and the data on the reflected light of the scanning light corresponding to the entire monitoring area is acquired based on the detected position, the scanning light on the monitoring area is obtained. It is essential to take measures to avoid the influence of the position detection accuracy.

本発明は前記事情に鑑みなされたもので、本発明の目的は、監視領域上における走査光の走査位置を基準にしなくても、監視領域の全体分に応じた走査光の反射光に関するデータを用いた正確な物体検出を実現することができる物体検出方法とその装置とを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to obtain data relating to reflected light of scanning light corresponding to the entire monitoring area without using the scanning position of the scanning light on the monitoring area as a reference. An object of the present invention is to provide an object detection method and apparatus capable of realizing accurate object detection.

上記目的を達成するため、請求項1に記載した本発明の物体検出方法は、複数本の走査線上を順次走査する走査光により監視領域の全体を走査し、各走査光の反射光により前記監視領域に存在する物体を検出する方法において、前記監視領域上に位置する走査線の本数よりも少ない所定本数の走査線上を前記走査光が走査する度に、前記各走査線の最新の走査光の反射光に基づいて、前記監視領域に存在する物体を検出することを特徴とする。   In order to achieve the above object, the object detection method of the present invention described in claim 1 scans the entire monitoring region by scanning light that sequentially scans a plurality of scanning lines, and the monitoring by reflected light of each scanning light. In the method of detecting an object present in an area, each time the scanning light scans a predetermined number of scanning lines that are smaller than the number of scanning lines located on the monitoring area, the latest scanning light of each scanning line is detected. An object existing in the monitoring area is detected based on reflected light.

また、上記目的を達成するため、請求項3に記載した本発明の物体検出装置は、複数本の走査線上を順次走査する走査光により監視領域の全体を走査するレーザレーダと、前記監視領域上に位置する前記各走査線上をそれぞれ走査した前記各走査光の反射光に基づいて、前記監視領域に存在する物体を検出する物体検出手段と、前記監視領域上に位置する前記各走査線上をそれぞれ走査した最新の前記走査光の反射光のデータを記憶する反射光データ記憶手段と、前記監視領域上に位置する走査線の本数よりも少ない所定本数の走査線上を前記走査光が走査する度に、前記反射光データ記憶手段に記憶された前記各走査線上を走査した最新の前記各走査光の反射光のデータに基づいて、前記物体検出手段により前記監視領域に存在する物体を検出させる制御手段とを備えることを特徴とする。   In order to achieve the above object, an object detection apparatus according to a third aspect of the present invention includes a laser radar that scans the entire monitoring area with scanning light that sequentially scans a plurality of scanning lines, Object detection means for detecting an object present in the monitoring area based on the reflected light of each scanning light respectively scanned on each scanning line located on the scanning line, and on each scanning line located on the monitoring area, respectively. Each time the scanning light scans reflected light data storage means for storing reflected light data of the latest scanned light and a predetermined number of scanning lines which are smaller than the number of scanning lines located on the monitoring area. Based on the latest reflected light data of each scanning light scanned on each scanning line stored in the reflected light data storage means, the object detection means detects an object present in the monitoring area. Characterized in that it comprises a control means for causing out.

請求項1に記載した本発明の物体検出方法と、請求項3に記載した本発明の物体検出装置とによれば、所定本数の走査線上を走査光が走査する度に、その所定本数の走査線を含む監視領域上の複数の走査線上をそれぞれ走査した最新の各走査光の反射光に基づいて、監視領域に存在する物体の検出が行われる。ここで、所定本数は監視領域上に位置する走査線の数よりも少ないことから、各走査光の反射光に基づいて監視領域の物体検出が行われる周期は、走査光が監視領域の端から端まで全ての走査線上を走査し終える周期とは同期しない。   According to the object detection method of the present invention described in claim 1 and the object detection apparatus of the present invention described in claim 3, every time scanning light scans a predetermined number of scan lines, the predetermined number of scans. An object existing in the monitoring area is detected based on the latest reflected light of each scanning light scanned on a plurality of scanning lines on the monitoring area including the line. Here, since the predetermined number is smaller than the number of scanning lines located on the monitoring area, the period in which the object detection of the monitoring area is performed based on the reflected light of each scanning light is performed from the end of the monitoring area. It does not synchronize with the cycle of finishing scanning all the scanning lines to the end.

したがって、監視領域の端から端まで全ての走査線上を走査光が走査し終えるタイミングを認識するために、走査線の延在方向と直交する列設方向における監視領域の端部に走査光が達したことを検出する必要がない。このため、監視領域上における走査光の高精度な走査位置検出が困難な場合であっても、その影響を受けることなく、監視領域の全体分に応じた走査光の反射光に関するデータを用いた正確な物体検出を実現することができる。   Therefore, in order to recognize the timing at which the scanning light finishes scanning on all the scanning lines from the end to the end of the monitoring area, the scanning light reaches the end of the monitoring area in the row direction perpendicular to the extending direction of the scanning lines. There is no need to detect that. For this reason, even when it is difficult to detect the scanning position of the scanning light on the monitoring area with high accuracy, the data regarding the reflected light of the scanning light corresponding to the entire monitoring area is used without being affected by the detection. Accurate object detection can be realized.

さらに、請求項2に記載した本発明の物体検出方法は、請求項1に記載した本発明の物体検出方法において、前記所定本数が1本であることを特徴とする。また、請求項4に記載した本発明の物体検出装置は、請求項3に記載した本発明の物体検出装置において、前記所定本数が1本であることを特徴とする。   Furthermore, the object detection method of the present invention described in claim 2 is the object detection method of the present invention described in claim 1, wherein the predetermined number is one. According to a fourth aspect of the present invention, in the object detection device of the present invention described in the third aspect, the predetermined number is one.

請求項2に記載した本発明の物体検出方法と、請求項4に記載した本発明の物体検出装置とによれば、請求項1に記載した本発明の物体検出方法と、請求項3に記載した本発明の物体検出装置とにおいて、監視領域上の各走査線上を走査光が走査する度に、監視領域の全体分の走査光の反射光に基づいた物体検出が行われることになる。このため、走査光が監視領域の端から端まで全ての走査線上を走査し終える周期に対して高速で移動する物体についても、監視領域上における走査光の走査位置検出精度の影響を受けることなく、監視領域の全体分に応じた走査光の反射光に関するデータを用いた物体検出を実現することができる。   According to the object detection method of the present invention described in claim 2 and the object detection device of the present invention described in claim 4, the object detection method of the present invention described in claim 1 and claim 3 In the object detection apparatus of the present invention, each time scanning light scans each scanning line on the monitoring area, object detection is performed based on the reflected light of the scanning light for the entire monitoring area. For this reason, an object that moves at high speed with respect to a period in which the scanning light scans all the scanning lines from end to end of the monitoring area is not affected by the detection position detection accuracy of the scanning light on the monitoring area. Thus, it is possible to realize object detection using data relating to the reflected light of the scanning light corresponding to the entire monitoring area.

本発明によれば、監視領域上における走査光の走査位置を基準にしなくても、監視領域の全体分に応じた走査光の反射光に関するデータを取得できる。このため、監視領域上における走査光の高精度な走査位置検出が困難な場合であっても、その影響を受けることなく、監視領域の全体分に応じた走査光の反射光に関するデータを用いた正確な物体検出を実現することができる。   According to the present invention, it is possible to acquire data related to the reflected light of the scanning light corresponding to the entire monitoring area without using the scanning position of the scanning light on the monitoring area as a reference. For this reason, even when it is difficult to detect the scanning position of the scanning light on the monitoring area with high accuracy, the data regarding the reflected light of the scanning light corresponding to the entire monitoring area is used without being affected by the detection. Accurate object detection can be realized.

本発明による物体検出方法を適用した本発明の一実施形態に係る物体検出装置を示す概略構成図である。It is a schematic block diagram which shows the object detection apparatus which concerns on one Embodiment of this invention to which the object detection method by this invention is applied. 図1の物体検出装置を踏切の障害物検出に用いる場合におけるレーザレーダヘッドの設置環境を鳥瞰して説明する斜視図である。FIG. 2 is a perspective view for explaining a bird's-eye view of an installation environment of a laser radar head when the object detection apparatus of FIG. 1 is used for crossing obstacle detection. (a),(b)は図1のレーザレーダヘッドから出射される走査光の走査線を示す説明図である。(A), (b) is explanatory drawing which shows the scanning line of the scanning light radiate | emitted from the laser radar head of FIG. 間欠発光される走査光が図3(b)の走査線上を走査する場合の走査光の照射ポイントを模式的に示す説明図である。It is explanatory drawing which shows typically the irradiation point of the scanning light in case the scanning light by which intermittent light emission is scanned on the scanning line of FIG.3 (b). 複数ポイントにおいて受光された走査光の反射光が同一物体からのものであるか否かの判定方法を示す説明図である。It is explanatory drawing which shows the determination method whether the reflected light of the scanning light received in the plurality of points is from the same object. 走査光の反射光に基づいた物体の検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the object based on the reflected light of scanning light. 検出された物体の異同を判断する方法を示す説明図である。It is explanatory drawing which shows the method of judging the difference of the detected object. 図1の制御装置が実行する処理のフローチャートである。It is a flowchart of the process which the control apparatus of FIG. 1 performs. 図2の箇所に設置されたレーザレーダヘッドからの走査光による踏切の走査範囲と障害物の監視エリアとの関係を示す平面図である。It is a top view which shows the relationship between the scanning range of a level crossing by the scanning light from the laser radar head installed in the location of FIG. 2, and the obstruction monitoring area.

以下、本発明の実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明による物体検出方法を適用した本発明の一実施形態に係る物体検出装置を示す概略構成図である。   FIG. 1 is a schematic configuration diagram showing an object detection apparatus according to an embodiment of the present invention to which an object detection method according to the present invention is applied.

図1に示す物体検出装置は、監視対象のエリアを走査光により走査してその反射光によりエリア内の物体を検出するもので、走査光を出力しその反射光を受光するレーザレーダヘッド5と、走査光及び反射光に基づいてエリア内の物体の検出処理を行う制御装置6とを有している。   The object detection apparatus shown in FIG. 1 scans an area to be monitored with scanning light and detects an object in the area by reflected light. The laser radar head 5 outputs scanning light and receives the reflected light. And a control device 6 that performs detection processing of an object in the area based on the scanning light and the reflected light.

図1の物体検出装置を例えば踏切の障害物検出に用いる場合、前記レーザレーダヘッド5は、図2の斜視図に鳥瞰状態で示すように、踏切Aの近傍に立設した支柱Bの上端付近に取り付け設置される。このような高所にレーザレーダヘッド5を設置することで、レーザレーダヘッド5からの走査光を踏切Aの車両Cや通行人(図示せず)が立ち入るエリアを走査光で走査することができる。なお、図2中の破線は、レーザレーダヘッド5からの走査光による走査範囲Eを模式的に示している。   When the object detection apparatus of FIG. 1 is used, for example, for detecting an obstacle at a level crossing, the laser radar head 5 is located near the upper end of a column B standing near the level crossing A as shown in a perspective view in the perspective view of FIG. Installed in the installation. By installing the laser radar head 5 at such a high place, the scanning light from the laser radar head 5 can be scanned with the scanning light in an area where the vehicle C or a passerby (not shown) enters the railroad crossing A. . 2 schematically shows the scanning range E by the scanning light from the laser radar head 5.

そして、レーザレーダヘッド5は、図1に示すように、レーザ光Lを出力する投光部1と、レーザ光Lを水平及び垂直方向に走査させて走査光L1とするポリゴンミラー11及びガルバノミラー12と、物体に照射された走査光L1の反射光L2をガルバノミラー12及びポリゴンミラー11による反射後に受光する受光部2と、走査光L1及び反射光L2が通過する投光窓Wと、投光部1及び受光部2から得られる走査光L1及び反射光L2に関する情報から物体検出に必要な計測データDを生成する信号処理部3とを有している。この信号処理部3は、主信号処理部31と時間計測部32とを有する。   As shown in FIG. 1, the laser radar head 5 includes a light projecting unit 1 that outputs a laser beam L, a polygon mirror 11 and a galvanometer mirror that scan the laser beam L in the horizontal and vertical directions to obtain a scanning beam L1. 12, a light receiving unit 2 that receives reflected light L2 of the scanning light L1 irradiated on the object after being reflected by the galvanometer mirror 12 and the polygon mirror 11, a light projection window W through which the scanning light L1 and the reflected light L2 pass, A signal processing unit 3 that generates measurement data D necessary for object detection from information on the scanning light L1 and the reflected light L2 obtained from the light unit 1 and the light receiving unit 2; The signal processing unit 3 includes a main signal processing unit 31 and a time measurement unit 32.

前記投光部1は、光源となるレーザダイオード1aと、レーザ光Lをコリメートする投光レンズ1bと、レーザダイオード1aを操作するLDドライバ1cとを有している。LDドライバ1cは、信号処理部3からのトリガー信号Stに基づいてレーザ光Lを間欠発光させるようにレーザダイオード1aを操作し、レーザ光Lの間欠発光と同期するパルス状の投光同期信号Ssを信号処理部3に発信する。なお、投光同期信号Ssは、トリガー信号Stにより代用するようにしてもよい。   The light projecting unit 1 includes a laser diode 1a serving as a light source, a light projecting lens 1b for collimating the laser light L, and an LD driver 1c for operating the laser diode 1a. The LD driver 1c operates the laser diode 1a so as to intermittently emit the laser light L based on the trigger signal St from the signal processing unit 3, and a pulsed light projection synchronization signal Ss synchronized with the intermittent light emission of the laser light L. Is transmitted to the signal processing unit 3. Note that the projection synchronization signal Ss may be substituted by the trigger signal St.

前記ポリゴンミラー11は、高速回転する6面体を有しており、鏡面化された4側面を除く対峙する2面(上下面)の中心を回転軸としてモータ11aにより回転されるように構成されている。モータ11aは、モータドライバ11bにより操作される。このポリゴンミラー11の4側面のいずれかでレーザ光Lが反射されることで、レーザ光Lは主走査方向(水平走査方向)に走査される。   The polygon mirror 11 has a hexahedron that rotates at high speed, and is configured to be rotated by a motor 11a with the center of two opposing surfaces (upper and lower surfaces) excluding the mirrored four side surfaces as a rotation axis. Yes. The motor 11a is operated by a motor driver 11b. The laser beam L is reflected by any one of the four side surfaces of the polygon mirror 11, whereby the laser beam L is scanned in the main scanning direction (horizontal scanning direction).

前記ガルバノミラー12は、モータ12aにより限られた角度範囲で往復回動される回動軸の側面に接続されており、この回動軸の往復回動により往復揺動される。モータ12aは、モータドライバ12bにより操作される。このガルバノミラー12の一面でレーザ光Lが反射されることで、レーザ光Lは副走査方向(垂直走査方向)に走査される。   The galvanometer mirror 12 is connected to a side surface of a rotating shaft that is reciprocally rotated by a motor 12a within a limited angle range, and is reciprocally swung by the reciprocating rotation of the rotating shaft. The motor 12a is operated by a motor driver 12b. The laser beam L is reflected by one surface of the galvanometer mirror 12 so that the laser beam L is scanned in the sub-scanning direction (vertical scanning direction).

なお、ポリゴンミラー11及びガルバノミラー12のモータドライバ11b,12bは、信号処理部3からの制御信号Smにより制御される。また、モータドライバ11b,12bは、ポリゴンミラー11の回転角度やガルバノミラー12の揺動角度等の投光条件信号Scを信号処理部3に発信する。なお、上述したポリゴンミラー11及びガルバノミラー12は単なる一例であり、レーザ光Lの走査光学系は図示した構成に限定されるものではない。   The motor drivers 11b and 12b of the polygon mirror 11 and the galvano mirror 12 are controlled by a control signal Sm from the signal processing unit 3. Further, the motor drivers 11 b and 12 b transmit a light projection condition signal Sc such as a rotation angle of the polygon mirror 11 and a swing angle of the galvanometer mirror 12 to the signal processing unit 3. The polygon mirror 11 and the galvanometer mirror 12 described above are merely examples, and the scanning optical system for the laser light L is not limited to the illustrated configuration.

ちなみに、上述したポリゴンミラー11及びガルバノミラー12によりレーザ光Lが水平及び垂直方向に走査されると、図3(a),(b)に示すような走査線上を走査する走査光L1となる。具体的には、ガルバノミラー12が仰角側から俯角側に揺動する際には、図3(a)に示すように、左上から右下に向かう斜めの走査線上を走査する走査光L1となる。反対に、ガルバノミラー12が俯角側から仰角側に揺動する際には、図3(b)に示すように、左下から右上に向かう斜めの走査線上を走査する走査光L1となる。以後、便宜的に、図3(a)を往路の走査線、図3(b)を復路の走査線と呼ぶことがある。   Incidentally, when the laser light L is scanned in the horizontal and vertical directions by the polygon mirror 11 and the galvanometer mirror 12 described above, the scanning light L1 is scanned on the scanning lines as shown in FIGS. Specifically, when the galvano mirror 12 swings from the elevation side to the depression side, as shown in FIG. 3A, the scanning light L1 scans on an oblique scanning line from the upper left to the lower right. . On the contrary, when the galvanometer mirror 12 swings from the depression angle side to the elevation angle side, as shown in FIG. 3B, the scanning light L1 is scanned on an oblique scanning line from the lower left to the upper right. Hereinafter, for convenience, FIG. 3A may be referred to as a forward scanning line, and FIG. 3B may be referred to as a backward scanning line.

往路の走査線も復路の走査線も、水平に対する傾きは僅かなものであるから、運用上は、往路の各走査線と復路の各走査線は同じ箇所を走査するものと見倣している。そして、垂直走査範囲の上端から下端までの全走査線(本実施形態では50本)を一組として、走査範囲Eの1フレーム分の走査線が構成される。   Since both the forward scanning line and the backward scanning line have a slight inclination with respect to the horizontal, in the operation, it is assumed that each scanning line in the forward path and each scanning line in the backward path scan the same part. . Then, the scanning lines for one frame of the scanning range E are configured by setting all the scanning lines (50 in this embodiment) from the upper end to the lower end of the vertical scanning range as a set.

なお、往路及び復路のいずれの場合にも、垂直走査範囲の上端付近及び下端付近では、走査線の間隔が他の部分における間隔よりも短くなる。これは、ガルバノミラー12のモータドライバ12bがモータ12aをサーボ制御するので、垂直走査範囲の上端付近及び下端付近においてモータ12aの回転速度乃至ガルバノミラー12の揺動速度が下がることに起因するものである。   Note that, in both cases of the forward path and the backward path, the scanning line interval is shorter near the upper end and lower end of the vertical scanning range than at other portions. This is because the motor driver 12b of the galvano mirror 12 servo-controls the motor 12a, so that the rotational speed of the motor 12a or the swing speed of the galvano mirror 12 decreases near the upper end and the lower end of the vertical scanning range. is there.

そして、走査光L1の元となるレーザ光Lは、先に説明したとおり、トリガー信号Stに基づいてLDドライバ1cが間欠的に発光させるので、上述した走査線上を走査光L1が走査する際には、走査線上の一定間隔毎の箇所で走査光L1が照射されることになる。例えば、図3(b)に示す復路の走査線上を走査光L1が走査する場合は、図4の説明図中の白丸によって模式的に示すように、走査線上の一定間隔おきのポイントP0〜Pnにおいて、走査範囲E(図2参照)に向けて走査光L1が照射されることになる。そして、走査範囲Eにおいて走査光L1が物体に照射されると、その物体からの反射光L2(の一部)が、レーザレーダヘッド5の投光窓Wに向かう。   As described above, since the LD driver 1c emits light intermittently based on the trigger signal St as described above, when the scanning light L1 scans the scanning line described above. In this case, the scanning light L1 is irradiated at locations at regular intervals on the scanning line. For example, when the scanning light L1 scans the scanning line on the return path shown in FIG. 3B, the points P0 to Pn at regular intervals on the scanning line are schematically shown by the white circles in the explanatory diagram of FIG. , The scanning light L1 is irradiated toward the scanning range E (see FIG. 2). When the scanning light L 1 is irradiated on the object in the scanning range E, the reflected light L 2 from the object (a part of the reflected light L 2) travels toward the projection window W of the laser radar head 5.

図1に示すように、前記受光部2は、投光窓Wを通過しガルバノミラー12及びポリゴンミラー11による反射で受光部2に導かれた反射光L2を集光する受光レンズ2aと、集光された反射光L2を受光して電圧に変換するフォトダイオード等の光電変換素子や増幅器等を有する受光部本体2bとを有している。そして、反射光L2を受光した受光部本体2bは、電圧値に変換された受光信号Srを信号処理部3に発信する。   As shown in FIG. 1, the light receiving unit 2 includes a light receiving lens 2 a that condenses the reflected light L <b> 2 that passes through the projection window W and is guided to the light receiving unit 2 by reflection by the galvanometer mirror 12 and the polygon mirror 11. It has a light receiving part main body 2b having a photoelectric conversion element such as a photodiode for receiving the reflected light L2 and converting it into a voltage, an amplifier, and the like. Then, the light receiving unit main body 2b that receives the reflected light L2 transmits a light receiving signal Sr converted into a voltage value to the signal processing unit 3.

前記信号処理部3の時間計測部32は、時間を計測する時計機能を有しており、投光部1のLDドライバ1cからの投光同期信号Ssの受信により時間の計測を開始し、受光部2の受光部本体2bからの受光信号Srを受信した時間を把握する。したがって、時間計測部32では、走査光L1が投光部1から出射されてから、物体に照射された反射光L2が受光部2で受光されるまでの所要時間を計測することができる。また、時間計測部32は、受光信号Srから所望の受光強度を有する受光信号Srを選択する弁別機能や、受光信号Srのうち所要時間の短いものを除外するゲート機能を有していてもよい。かかる弁別機能やゲート機能により、ノイズを効率よく排除することができる。そして、時間計測部32は、弁別機能やゲート機能を通過した受光信号Srの受光強度信号Sq及び所要時間信号Sdを主信号処理部31に発信する。   The time measuring unit 32 of the signal processing unit 3 has a clock function for measuring time, starts measuring time by receiving the light projection synchronization signal Ss from the LD driver 1c of the light projecting unit 1, and receives light. The time when the light receiving signal Sr from the light receiving unit main body 2b of the unit 2 is received is grasped. Therefore, the time measuring unit 32 can measure the time required from when the scanning light L1 is emitted from the light projecting unit 1 until the reflected light L2 applied to the object is received by the light receiving unit 2. Further, the time measuring unit 32 may have a discrimination function for selecting a light reception signal Sr having a desired light reception intensity from the light reception signal Sr, and a gate function for excluding those having a short required time from the light reception signal Sr. . Such discrimination function and gate function can efficiently eliminate noise. Then, the time measuring unit 32 transmits the received light intensity signal Sq and the required time signal Sd of the received light signal Sr that has passed through the discrimination function and the gate function to the main signal processing unit 31.

前記信号処理部3の主信号処理部31は、投光部1のLDドライバ1cに対するトリガー信号Stの発信、ポリゴンミラー11及びガルバノミラー12のモータドライバ11b,12bに対する制御信号Smの発信、モータドライバ11b,12bからの投光条件信号Scの受信、時間計測部32からの信号(受光強度信号Sq及び所要時間信号Sd)の受信、計測データDの生成及び制御装置6に対する発信等の処理を行う。   The main signal processing unit 31 of the signal processing unit 3 transmits a trigger signal St to the LD driver 1c of the light projecting unit 1, transmits control signals Sm to the motor drivers 11b and 12b of the polygon mirror 11 and the galvano mirror 12, and a motor driver. Processes such as reception of light projection condition signals Sc from 11b and 12b, reception of signals (light reception intensity signal Sq and required time signal Sd) from time measurement unit 32, generation of measurement data D, and transmission to control device 6 are performed. .

前記計測データD(請求項中の反射光のデータに相当)は、走査光L1及び反射光L2から得られたデータを含んでいる。具体的には、計測データDは、所要時間信号Sdを(光の速度)×(所要時間)/2の計算式により変換して得た、レーザレーダヘッド5から走査光L1の反射点までの距離を示す距離データと、時間計測部32からの受光強度信号Sqと、モータドライバ11b,12bからの投光条件信号Sc等を含んでいる。この計測データDは、各走査線上の各ポイントP0〜Pnについてそれぞれ生成される。主信号処理部31で生成された計測データDは、信号処理部3の不図示のバッファメモリに蓄積される。   The measurement data D (corresponding to the reflected light data in the claims) includes data obtained from the scanning light L1 and the reflected light L2. Specifically, the measurement data D is obtained from the laser radar head 5 to the reflection point of the scanning light L1 obtained by converting the required time signal Sd by the calculation formula of (light speed) × (required time) / 2. It includes distance data indicating the distance, a received light intensity signal Sq from the time measuring unit 32, a light projection condition signal Sc from the motor drivers 11b and 12b, and the like. The measurement data D is generated for each point P0 to Pn on each scanning line. The measurement data D generated by the main signal processing unit 31 is accumulated in a buffer memory (not shown) of the signal processing unit 3.

計測データDは、上述した不図示のバッファメモリに所定量蓄積される度に、例えばパケット通信によって制御装置6に出力される。このパケット通信1回で、図3(a),(b)に示す往路又は復路の走査線の1本分の走査光L1及び反射光L2から得られる計測データDか、それに近いデータ量の計測データDが、制御装置6に送信される。なお、計測データDは、どの走査線のどのポイントP0〜Pnについてのデータであるかを示すアドレス情報を含んでいる。   The measurement data D is output to the control device 6 by packet communication, for example, every time a predetermined amount is accumulated in the buffer memory (not shown). Measurement of the measurement data D obtained from the scanning light L1 and the reflected light L2 for one scanning line in the forward path or the backward path shown in FIGS. 3A and 3B or a data amount close to it in one packet communication. Data D is transmitted to the control device 6. The measurement data D includes address information indicating which point P0 to Pn of which scanning line is the data.

前記制御装置6は、画像処理部61、故障診断部62、誤差補正部63等を有するコンピュータである。画像処理部61は、投光部1、ポリゴンミラー11、及び、ガルバノミラー12の制御条件Shを信号処理部3に発信している。この制御条件Shでは、ポリゴンミラー11の回転角度や回転速度、ガルバノミラー12の揺動角度や揺動速度、信号処理部3の主信号処理部31から投光部1のLDドライバ1cに対するレーザ光Lのトリガー信号Stの発信タイミング、等の条件が設定される。したがって、信号処理部3の主信号処理部31が発信する、LDドライバ1cのトリガー信号Stやモータドライバ11b,12bの制御信号Smの内容は、この制御条件Shに基づいて決定される。   The control device 6 is a computer having an image processing unit 61, a failure diagnosis unit 62, an error correction unit 63, and the like. The image processing unit 61 transmits control conditions Sh for the light projecting unit 1, the polygon mirror 11, and the galvanometer mirror 12 to the signal processing unit 3. Under this control condition Sh, the rotation angle and rotation speed of the polygon mirror 11, the swing angle and swing speed of the galvano mirror 12, and the laser light from the main signal processing unit 31 of the signal processing unit 3 to the LD driver 1 c of the light projecting unit 1. Conditions such as the transmission timing of the L trigger signal St are set. Therefore, the contents of the trigger signal St of the LD driver 1c and the control signal Sm of the motor drivers 11b and 12b transmitted from the main signal processing unit 31 of the signal processing unit 3 are determined based on the control condition Sh.

また、画像処理部61は、信号処理部3から制御装置6が受信した走査範囲Eの1フレーム分の走査線に関する計測データDを解析し、その解析結果から、走査範囲Eに存在する物体を検出する。また、画像処理部61は、上述した解析結果を最新の過去複数フレーム分についての解析結果と照合して、走査範囲Eに存在する物体の静止又は移動状態を判定する。そして、制御装置6は物体の検出結果やその静止又は移動状態の判定結果を、ディスプレイ、プリンタ、警報機等の出力機器7に出力する。   Further, the image processing unit 61 analyzes the measurement data D relating to the scanning line for one frame in the scanning range E received by the control device 6 from the signal processing unit 3, and the object present in the scanning range E is determined from the analysis result. To detect. Further, the image processing unit 61 collates the above-described analysis result with the latest analysis result for the past plural frames, and determines the stationary or moving state of the object existing in the scanning range E. Then, the control device 6 outputs the detection result of the object and the determination result of the stationary or moving state to the output device 7 such as a display, a printer, or an alarm device.

画像処理部61の上記の処理を実現するために、制御装置6はRAM64を内蔵している。このRAM64には、走査範囲Eの1フレーム分の走査線について、最新の計測データDをそれぞれ記憶する計測データ記憶領域64a(請求項中の反射光データ記憶手段に相当)と、過去の解析結果を記憶する解析結果記憶領域64bとが設けられている。   In order to realize the above processing of the image processing unit 61, the control device 6 includes a RAM 64. The RAM 64 has a measurement data storage area 64a (corresponding to the reflected light data storage means in the claims) for storing the latest measurement data D for each scanning line of the scanning range E, and past analysis results. And an analysis result storage area 64b for storing.

計測データ記憶領域64aは、走査範囲Eの各走査線及び各ポイントP0〜Pnに対応するアドレスを有している。したがって、パケット通信により信号処理部3から制御装置6が計測データDを受信すると、受信した計測データDが、そのアドレス情報に示された走査線及びポイントP0〜Pnに対応する計測データ記憶領域64aのアドレス箇所に記憶される。なお、記憶先のアドレス箇所に既に計測データDが記憶されている場合は、受信した計測データDが最新のデータとして上書き記憶される。これにより、計測データ記憶領域64aには、走査範囲Eの1フレーム分の走査線に関する最新の計測データDが記憶されることになる。   The measurement data storage area 64a has addresses corresponding to the scanning lines of the scanning range E and the points P0 to Pn. Therefore, when the control device 6 receives the measurement data D from the signal processing unit 3 by packet communication, the received measurement data D is stored in the measurement data storage area 64a corresponding to the scanning line and the points P0 to Pn indicated by the address information. Is stored at the address location. If the measurement data D is already stored at the address location of the storage destination, the received measurement data D is overwritten and stored as the latest data. As a result, the latest measurement data D relating to the scanning lines for one frame of the scanning range E is stored in the measurement data storage area 64a.

解析結果記憶領域64bには、画像処理部61が計測データDの受信の度に受信した計測データDを解析して検出した走査線上に存在する物体のデータが、少なくとも最新の過去2フレーム分記憶される。   In the analysis result storage area 64b, the data of the object existing on the scanning line detected by analyzing the measurement data D received each time the image processing unit 61 receives the measurement data D is stored for at least the latest two frames. Is done.

また、故障診断部62では、信号処理部3の主信号処理部31が所要時間信号Sdから得た距離データの誤差を、レーザレーダヘッド5に設けた誤差検出用の装備(図示せず)を用いて算出し、その誤差が一定値を超えると故障信号を出力機器7に出力する。なお、故障診断部62には、上述した不図示の装備を用いて、信号処理部3の時間計測部32からの受光強度信号Sqが示す反射光L2の受光強度の誤差を検出し、その誤差が一定値を超えると故障信号を出力機器7に出力する機能を持たせることもできる。誤差補正部63では、故障診断部62による距離データの誤差を補正する補正値が算出される。この補正値は画像処理部61にフィードバックされ、画像処理部61による計測データD中の距離データの補正に用いられる。なお、誤差値を画像処理部61にフィードバックする代わりに、制御条件Shによって信号処理部3に通知して、制御装置6に出力する前の計測データD中の距離データを信号処理部3が補正するのに利用させるように構成してもよい。   In the failure diagnosis unit 62, an error detection device (not shown) provided in the laser radar head 5 is used to detect the error of the distance data obtained from the required time signal Sd by the main signal processing unit 31 of the signal processing unit 3. When the error exceeds a certain value, a failure signal is output to the output device 7. The failure diagnosis unit 62 detects an error in the received light intensity of the reflected light L2 indicated by the received light intensity signal Sq from the time measuring unit 32 of the signal processing unit 3 using the above-described equipment (not shown). When the value exceeds a certain value, a function of outputting a failure signal to the output device 7 can be provided. In the error correction unit 63, a correction value for correcting an error in distance data by the failure diagnosis unit 62 is calculated. This correction value is fed back to the image processing unit 61 and used for correcting the distance data in the measurement data D by the image processing unit 61. Instead of feeding back the error value to the image processing unit 61, the signal processing unit 3 notifies the signal processing unit 3 according to the control condition Sh, and the signal processing unit 3 corrects the distance data in the measurement data D before being output to the control device 6. You may comprise so that it may utilize.

以上に説明した構成を有する制御装置6の画像処理部61は、往路又は復路の走査線上を走査範囲Eの全体に亘って走査する走査光L1とその反射光L2とから生成される計測データDを、走査範囲Eの1フレーム分単位で解析することで、走査範囲Eに存在する物体を検出する。そして、この検出を繰り返すことで、走査範囲Eに存在する物体の静止又は移動状態を判定する。   The image processing unit 61 of the control device 6 having the above-described configuration is the measurement data D generated from the scanning light L1 that scans the entire scanning range E on the scanning line of the forward path or the backward path and the reflected light L2. Is detected in units of one frame of the scanning range E, thereby detecting an object existing in the scanning range E. Then, by repeating this detection, the stationary or moving state of the object existing in the scanning range E is determined.

ここで、画像処理部61は、信号処理部3からのパケット通信1回分の計測データDに基づいて、その計測データDに対応する走査線上に存在する物体の検出を次のようにして行う。即ち、走査線の各ポイントP0〜Pnにおいて走査範囲Eに照射された走査光L1が、走査範囲Eの物体で反射されて、物体からの反射光L2が受光部2(図1参照)で受光された場合、連続するポイントP0〜Pnで照射された走査光L1の反射光L2が受光部2で受光されたらば、画像処理部61は、連続する前後の各ポイントP0〜Pnにおいて走査光L1が同一の物体で反射されたか否かを判定する。   Here, based on the measurement data D for one packet communication from the signal processing unit 3, the image processing unit 61 detects an object present on the scanning line corresponding to the measurement data D as follows. That is, the scanning light L1 irradiated to the scanning range E at each point P0 to Pn of the scanning line is reflected by the object in the scanning range E, and the reflected light L2 from the object is received by the light receiving unit 2 (see FIG. 1). If the reflected light L2 of the scanning light L1 irradiated at the continuous points P0 to Pn is received by the light receiving unit 2, the image processing unit 61 scans the scanning light L1 at the respective points P0 to Pn before and after the continuous. Are reflected from the same object.

この判定に当たり、画像処理部61は、前後の各ポイントP0〜Pnで走査光L1がそれぞれ反射された位置を、各走査光L1とそれに対応する各反射光L2とから生成された計測データDを用いて特定する。そして、特定した前後の各ポイントP0〜Pnに関する走査光L1の反射位置間の距離が、図5の説明図に示すように、X−Yの各方向(水平走査方向、垂直走査方向)において、いずれもそれぞれの閾値内である場合に、画像処理部61は、連続する前後の各ポイントP0〜Pnにおいて、走査光L1が同一の物体により反射されたものと判定する。反対に、X,Yの各方向のいずれかにおいて、各ポイントP0〜Pnに関する走査光L1の反射位置間の距離が、対応する方向の閾値を越えている場合に、画像処理部61は、連続する前後の各ポイントP0〜Pnにおいて、走査光L1が別々の物体によりそれぞれ反射されたものと判定する。   In this determination, the image processing unit 61 uses the measurement data D generated from each scanning light L1 and each reflected light L2 corresponding to the position where the scanning light L1 is reflected at each of the front and rear points P0 to Pn. Use to identify. The distance between the reflection positions of the scanning light L1 with respect to the specified points P0 to Pn before and after the specified position is determined in each of the XY directions (horizontal scanning direction and vertical scanning direction) as shown in the explanatory diagram of FIG. When both are within the respective threshold values, the image processing unit 61 determines that the scanning light L1 is reflected by the same object at each of the points P0 to Pn before and after consecutive. On the other hand, when the distance between the reflection positions of the scanning light L1 with respect to each point P0 to Pn exceeds the threshold value in the corresponding direction in any of the X and Y directions, the image processing unit 61 continuously At the points P0 to Pn before and after the scanning, it is determined that the scanning light L1 is reflected by different objects.

このような判定を行うのは、連続する前後の各ポイントP0〜Pnにそれぞれ照射された走査光L1が、降雪時に別々の雪片で反射されて、受光部21に連続して受光された場合に、同一物体による反射光L2であると誤判定するのを防ぐためである。また、レーザレーダヘッド5から離れるほど、隣り合うポイントP0〜Pn間の距離が遠くなることから、上述したX,Y各方向の閾値は、計測データDの距離データによって示される、レーザレーダヘッド5から走査光L1の反射点までの距離に応じて、異なる値に設定される。   Such a determination is made when the scanning light L1 irradiated to the respective points P0 to Pn before and after the continuous is reflected by different snowflakes during snowfall and continuously received by the light receiving unit 21. This is to prevent erroneous determination of the reflected light L2 from the same object. Further, since the distance between the adjacent points P0 to Pn increases as the distance from the laser radar head 5 increases, the threshold values in the X and Y directions described above are indicated by the distance data of the measurement data D. Is set to a different value according to the distance from the reflection point of the scanning light L1.

具体的には、レーザレーダヘッド5から走査光L1の反射点までの距離λを雪計測最大距離の2倍で除した定数α(α=λ÷(2×雪計測最大距離))が、雪片による走査光L1の反射光L2を受光部2で受光できる「1」未満であるか、それとも、受光できない「1」以上であるかによって、上述したX,Y各方向の閾値を異なる値に設定する。なお、雪計測最大距離とは、雪片で反射された走査光L1の反射光L2を受光部2で受光できる最大距離のことである。この雪計測最大距離は、雪片の反射率や受光部2の受光感度に依存して定まるが、定量的に決定できない場合は、経験的又は実験的に定めた値に設定することができる。   Specifically, a constant α (α = λ ÷ (2 × maximum snow measurement distance)) obtained by dividing the distance λ from the laser radar head 5 to the reflection point of the scanning light L1 by twice the maximum snow measurement distance is a snowflake. The threshold values in the X and Y directions described above are set to different values depending on whether the reflected light L2 of the scanning light L1 is less than “1” that can be received by the light receiving unit 2 or is “1” or more that cannot be received. To do. The snow measurement maximum distance is the maximum distance at which the reflected light L2 of the scanning light L1 reflected by the snowflake can be received by the light receiving unit 2. The maximum snow measurement distance is determined depending on the reflectance of the snowflake and the light receiving sensitivity of the light receiving unit 2, but can be set to an empirically or experimentally determined value if it cannot be determined quantitatively.

そして、上述した定数αが1未満である場合は、X方向の閾値を、大きさ補正値[幅]の2倍に定数αを乗じた値とし、Y方向の閾値を、近距離検出長さに設定する。一方、定数αが1以上である場合は、X方向の閾値を、大きさ補正値[幅]の2倍の値とし、Y方向の閾値を、大きさ補正値[長さ]とする。   If the constant α is less than 1, the threshold value in the X direction is set to a value obtained by multiplying the size correction value [width] by twice the constant α, and the threshold value in the Y direction is set as the short distance detection length. Set to. On the other hand, when the constant α is 1 or more, the threshold value in the X direction is set to a value twice the size correction value [width], and the threshold value in the Y direction is set as the size correction value [length].

ここで、X方向の閾値に用いられる大きさ補正値[幅]は、走査光L1及び反射光L2による物体の検出が可能な最大距離(本実施形態では30m)における、隣り合うポイントP0〜Pn間の距離(本実施形態では0.2m)に設定される。   Here, the size correction value [width] used for the threshold value in the X direction is the adjacent points P0 to Pn at the maximum distance (30 m in the present embodiment) at which the object can be detected by the scanning light L1 and the reflected light L2. The distance between the two is set to 0.2 m in this embodiment.

また、Y方向の閾値に用いられる近距離検出長さは、検出対象の物体が車両である場合を想定して、車両の平均的なフロントガラスやリアガラスの高さ方向の寸法(本実施形態では0.5m)に設定される。この近距離検出長さは、車両のボンネットやトランク部分とルーフ部分とが別々の物体であると誤判定されないようにするために用いられる。即ち、車両のボンネットやトランク部分では走査光L1の反射光L2が受光部2で受光されるが、フロントガラスやリアガラス部分では走査光L1が反射されないので反射光L2が受光部2で受光されず、その後、ルーフ部分では再び走査光L1の反射光L2が受光部2で受光された時に、ボンネットやトランク部分とルーフ部分とが別々の物体であると誤認識されてしまうからである。   In addition, the short distance detection length used for the threshold value in the Y direction assumes the case where the object to be detected is a vehicle, and is the dimension in the height direction of the average windshield and rear glass of the vehicle (in this embodiment, 0.5m). This short distance detection length is used in order to prevent erroneous determination that the hood, trunk portion and roof portion of the vehicle are separate objects. That is, the reflected light L2 of the scanning light L1 is received by the light receiving unit 2 at the hood or trunk portion of the vehicle, but the reflected light L2 is not received by the light receiving unit 2 because the scanning light L1 is not reflected by the windshield or rear glass portion. After that, when the reflected light L2 of the scanning light L1 is received again by the light receiving unit 2 at the roof portion, the bonnet, the trunk portion, and the roof portion are erroneously recognized as separate objects.

さらに、Y方向の閾値に用いられる大きさ補正値[長さ]は、検出対象の物体の奥行きに関する基準値(本実施形態では1m)の2倍の値に設定される。この大きさ補正値[長さ]は、計測データDによって検出対象の物体の奥行きを計測できないために用いられるもので、上述した定数αが、雪片による走査光L1の反射光L2を受光部2で受光できない「1」以上の時に使用される。   Further, the size correction value [length] used for the threshold value in the Y direction is set to a value twice the reference value (1 m in the present embodiment) relating to the depth of the object to be detected. The magnitude correction value [length] is used because the depth of the object to be detected cannot be measured by the measurement data D. The constant α described above receives the reflected light L2 of the scanning light L1 from the snowflakes as the light receiving unit 2. It is used when “1” or more cannot be received.

上述した閾値を用いて、連続して受光部2により受光された反射光L2が、走査線上に存在する同一の物体からの反射光L2である否かを判定する。そして、図6の説明図に示すように、反射光L2が1回以上間をおいて、複数回ずつ連続して(グループ1、グループ2)受光部2でそれぞれ受光され、それぞれの複数回連続して受光部2で受光された反射光L2が、それぞれ同一の物体からの反射光L2であると判定された場合は、反射光L2が受光部2で受光されなかったポイントを挟んで、その前後に複数回ずつ連続してそれぞれ受光部2で受光された反射光L2が、別々の物体からの反射光L2であると認識する。   Using the threshold value described above, it is determined whether or not the reflected light L2 continuously received by the light receiving unit 2 is reflected light L2 from the same object existing on the scanning line. Then, as shown in the explanatory diagram of FIG. 6, the reflected light L2 is received by the light receiving unit 2 continuously for a plurality of times (group 1, group 2) at least once, and continuously for a plurality of times. When it is determined that the reflected light L2 received by the light receiving unit 2 is reflected light L2 from the same object, the point where the reflected light L2 is not received by the light receiving unit 2 is sandwiched. It is recognized that the reflected light L2 received by the light receiving unit 2 continuously several times before and after is reflected light L2 from different objects.

このようにして、走査線上の同一の物体からの反射光L2であるか否かの判別を行った後、画像処理部61は、走査線上の物体の平面形状を特定する。物体の平面形状の特定に当たり、走査線上の同一の物体からの反射光L2であると認識されたポイントP0〜Pnが1点である場合に、画像処理部61は、そのポイントP0〜Pnを中心としてX方向(水平走査方向)にそれぞれ大きさ補正値[幅]の幅を有し、Y方向(垂直走査方向)に大きさ補正値[長さ]の奥行きを有し、Z方向(天地方向)にそのポイントP0〜Pnを頂点とする高さを有する物体としてデータ化される。また、走査線上の同一の物体からの反射光L2であると認識されたポイントP0〜Pnが複数点である場合に、画像処理部61は、X方向(水平走査方向)の両端のポイントP0〜Pn間の幅を有し、Y方向(垂直走査方向)における最もレーザレーダヘッド5寄りのポイントポイントP0〜Pnから大きさ補正値[長さ]分の奥行きを有し、Z方向(天地方向)における最も高い位置のポイントP0〜Pnを頂点とする高さを有する物体としてデータ化される。   Thus, after determining whether or not the reflected light L2 is from the same object on the scanning line, the image processing unit 61 specifies the planar shape of the object on the scanning line. In specifying the planar shape of the object, when the points P0 to Pn recognized as the reflected light L2 from the same object on the scanning line are one point, the image processing unit 61 centers the points P0 to Pn. Each having a width of the size correction value [width] in the X direction (horizontal scanning direction), a depth of the size correction value [length] in the Y direction (vertical scanning direction), and the Z direction (vertical direction) ) Is converted into data as an object having a height with the points P0 to Pn as vertices. In addition, when there are a plurality of points P0 to Pn recognized as the reflected light L2 from the same object on the scanning line, the image processing unit 61 sets the points P0 to P0 at both ends in the X direction (horizontal scanning direction). It has a width between Pn, has a depth corresponding to a size correction value [length] from the point points P0 to Pn closest to the laser radar head 5 in the Y direction (vertical scanning direction), and Z direction (vertical direction) Is converted into data as an object having a height with vertices at points P0 to Pn at the highest position.

また、画像処理部61は、前回のパケット通信で信号処理部3から受信した計測データDに基づいて特定した物体(前回特定した物体)と、今回のパケット通信で信号処理部3から受信した計測データDに基づいて特定した物体(今回特定した物体)との異同を、次のようにして判断する。即ち、図7に示すように、前回特定した物体と今回特定した物体とがX−Yの各方向で一部でも重なる場合は、それら2つの物体を合成して1つの物体として認識する。さらに、合成後の物体が、今回特定した物体又は前回特定した物体と、X−Yの各方向で一部でも重なる場合は、それら2つの物体をさらに合成して1つの物体として認識する。このようにして2つの物体を合成する場合、1つに合成した後の物体は、合成する前の2つの物体のポイントP0〜Pnのうち、X方向(水平走査方向)における最も両端のポイントP0〜Pn間の幅を有し、Y方向(垂直走査方向)における最も両端のポイントP0〜Pn間の奥行きを有し、Z方向(天地方向)における最も高い位置のポイントP0〜Pnを頂点とする高さを有する物体としてデータ化される。   In addition, the image processing unit 61 determines the object (the object specified last time) identified based on the measurement data D received from the signal processing unit 3 in the previous packet communication and the measurement received from the signal processing unit 3 in the current packet communication. Differences from the object specified based on the data D (the object specified this time) are determined as follows. That is, as shown in FIG. 7, when the object specified last time and the object specified this time partially overlap each other in the XY directions, the two objects are combined and recognized as one object. Further, if the combined object overlaps with the object specified this time or the object specified last time even in a part in each of the XY directions, the two objects are further combined and recognized as one object. When two objects are combined in this way, the object after combining the two objects is the point P0 at the most end in the X direction (horizontal scanning direction) among the points P0 to Pn of the two objects before combining. Has a width between .about.Pn, has a depth between points P0 to Pn at both ends in the Y direction (vertical scanning direction), and has the highest points P0 to Pn in the Z direction (vertical direction) as vertices. It is converted into data as an object having a height.

そして、画像処理部61は、走査範囲Eの1フレーム分の走査線に関する計測データDについて上述の処理を行う解析を実行することで、走査範囲Eに存在する物体を検出することができる。さらに、画像処理部61は、このような解析を周期的に繰り返し、かつ、前回の解析で検出した物体と今回の解析で検出した物体との異同を、図7に示す方法と同じような方法を用いて判断する。即ち、前回の解析で検出した物体の周囲に、その物体が移動しそうな範囲を示す領域を加え、この領域に、今回の解析で検出した物体が、X−Yの各方向で一部でも重なる場合は、同一の物体として認識する。万一、前回の解析で検出した複数の物体が今回の解析で検出した物体に重なる場合は、今回の解析で検出した物体に近い方の物体と合成したり、より以前の解析から検出されていた物体と優先して合成したり、何らかの条件に基づいて合成する相手の物体を決めるようにすればよい。   Then, the image processing unit 61 can detect an object existing in the scanning range E by executing an analysis for performing the above-described processing on the measurement data D related to the scanning line for one frame in the scanning range E. Further, the image processing unit 61 periodically repeats such an analysis, and the difference between the object detected in the previous analysis and the object detected in the current analysis is similar to the method shown in FIG. Judge using In other words, an area indicating the range in which the object is likely to move is added around the object detected in the previous analysis, and the object detected in the current analysis partially overlaps in this area in each of the XY directions. In the case, they are recognized as the same object. In the unlikely event that multiple objects detected in the previous analysis overlap the objects detected in the current analysis, they may be combined with an object closer to the object detected in the current analysis or may have been detected from a previous analysis. The object to be synthesized may be preferentially synthesized, or the partner object to be synthesized may be determined based on some condition.

ところで、計測データDの解析による走査範囲Eの物体の検出は、上述したように走査範囲Eの1フレーム分の計測データDを用いて行われる。そこで、走査範囲Eの全走査線上を走査光L1が往路又は復路で走査し終える垂直走査範囲の上端又は下端を、走査範囲Eの1フレーム分の計測データDが得られる区切りとし、その度に物体検出を行うことが考えられる。   By the way, the detection of the object in the scanning range E by the analysis of the measurement data D is performed using the measurement data D for one frame in the scanning range E as described above. Therefore, the upper end or lower end of the vertical scanning range where the scanning light L1 finishes scanning in the forward path or the backward path on all the scanning lines of the scanning range E is defined as a segment from which the measurement data D for one frame of the scanning range E is obtained. It is conceivable to perform object detection.

しかし、走査光L1が走査する走査線が垂直走査範囲の上端又は下端に達するガルバノミラー12の揺動端付近では、揺動用のモータ12aがサーボ制御されることに起因して不安定な動作が発生することがある。そして、この不安定動作により、ガルバノミラー12の揺動端や走査光L1の垂直走査範囲における上端又は下端をセンサ等で検出する際に、誤検出する可能性が生じる。このような誤検出が生じると、走査範囲Eの1フレーム分の計測データDを正確に取得して、走査範囲Eに存在する物体の検出を正しく行うことができない。   However, in the vicinity of the oscillating end of the galvanometer mirror 12 where the scanning line scanned by the scanning light L1 reaches the upper end or the lower end of the vertical scanning range, an unstable operation occurs due to servo control of the oscillating motor 12a. May occur. Due to this unstable operation, there is a possibility of erroneous detection when the swing end of the galvano mirror 12 or the upper end or lower end in the vertical scanning range of the scanning light L1 is detected by a sensor or the like. When such erroneous detection occurs, the measurement data D for one frame in the scanning range E can be accurately acquired, and the object existing in the scanning range E cannot be detected correctly.

そこで、本実施形態の制御装置6の画像処理部61では、走査範囲Eに存在する走査線の数(本実施形態では、往路復路とも50本)よりも少ない本数の走査線を走査光L1が走査する度に、最後に走査光L1が走査した走査線を含めて最新の過去50本(1フレーム分)の走査線上を走査した走査光L1の反射光L2に基づいて、走査範囲Eに存在する物体の検出を行う。   In view of this, in the image processing unit 61 of the control device 6 of the present embodiment, the scanning light L <b> 1 scans a smaller number of scanning lines than the number of scanning lines existing in the scanning range E (in this embodiment, 50 for both the forward and backward paths). Each time it scans, it exists in the scanning range E based on the reflected light L2 of the scanning light L1 scanned on the latest 50 scanning lines (for one frame) including the scanning line last scanned by the scanning light L1. The object to be detected is detected.

詳しくは、画像処理部61は、往路又は復路の走査線の1本分の走査光L1及び反射光L2から得られる計測データDか、それに近いデータ量の計測データDを、信号処理部3から制御装置6が1回のパケット通信で受信する度に、その計測データDを含む、RAM64の計測データ記憶領域64aに記憶された走査範囲Eの1フレーム分の走査線に関する最新の計測データDを用いて、走査範囲Eに存在する物体の検出を行う。   Specifically, the image processing unit 61 sends the measurement data D obtained from the scanning light L1 and the reflected light L2 for one scanning line of the forward path or the return path from the signal processing unit 3 or the measurement data D having a data amount close thereto. Each time the control device 6 receives a single packet communication, the latest measurement data D relating to the scanning line for one frame of the scanning range E stored in the measurement data storage area 64a of the RAM 64, including the measurement data D, is obtained. Using this, an object existing in the scanning range E is detected.

なお、1回のパケット通信により制御装置6が信号処理部3から受信する計測データDのデータ量が、走査線の1本分の計測データDのデータ量と一致しない場合は、1回のパケット通信によって受信された最新の計測データDが、計測データ記憶領域64aの2つの走査線に跨るアドレス箇所に記憶されたり、1つの走査線の一部のアドレス箇所のみに記憶される場合がある。   If the data amount of the measurement data D received by the control device 6 from the signal processing unit 3 by one packet communication does not match the data amount of the measurement data D for one scanning line, one packet is sent. In some cases, the latest measurement data D received by communication is stored at an address location straddling the two scanning lines in the measurement data storage area 64a or only at a partial address location of one scanning line.

このような場合は、走査線の水平走査方向における終端に対応するアドレス箇所に最新の計測データDが記憶された走査線を含む、RAM64の計測データ記憶領域64aに記憶された走査範囲Eの1フレーム分の走査線に関する最新の計測データDを用いて、走査範囲Eに存在する物体の検出を行う。   In such a case, 1 of the scanning range E stored in the measurement data storage area 64a of the RAM 64 including the scanning line in which the latest measurement data D is stored at the address location corresponding to the end of the scanning line in the horizontal scanning direction. An object existing in the scanning range E is detected using the latest measurement data D relating to the scanning lines for the frames.

次に、制御装置6が行う走査範囲Eの物体検出及び検出物体の静止又は移動状態の判定に関する処理を、図8のフローチャートを参照して説明する。   Next, processing relating to the detection of the object in the scanning range E performed by the control device 6 and the determination of the stationary or moving state of the detected object will be described with reference to the flowchart of FIG.

まず、制御装置6は、パケット通信により制御装置6が信号処理部3からの計測データDを受信したか否かを確認する(ステップS11)。受信していない場合は(ステップS11でNO)、ステップS11をリピートする。受信した場合は(ステップS11でYES)、受信した計測データDを、その計測データDのアドレス情報に示された走査線及びポイントP0〜Pnに対応する計測データ記憶領域64aのアドレス箇所に記憶させる(ステップS12)。   First, the control device 6 confirms whether or not the control device 6 has received the measurement data D from the signal processing unit 3 by packet communication (step S11). If not received (NO in step S11), step S11 is repeated. If received (YES in step S11), the received measurement data D is stored in the address portion of the measurement data storage area 64a corresponding to the scanning line and the points P0 to Pn indicated by the address information of the measurement data D. (Step S12).

次に、制御装置6は、ステップS11で受信した計測データDのアドレス情報に示された走査線上に存在する物体を検出させる(ステップS13)。この物体検出は、ステップS11で受信した計測データDに対して図5乃至図7を参照して説明した処理を画像処理部61に行わせることで行う。また、この物体検出の際に画像処理部61は、以前に受信した計測データDのアドレス情報に示された走査線上に存在することを既に検出した物体との異同の判断も行う。そして、制御装置6は、画像処理部61が検出した物体の位置や大きさのデータを、解析結果記憶領域64bに最新の物体検出データとして記憶させる(ステップS14)。このとき同時に、解析結果記憶領域64bの最も古い物体検出データが削除される。さらに、制御装置6は、解析結果記憶領域64bに記憶された最新の1フレーム分の物体検出データと、その直前の1フレーム分の物体検出データとの照合により、検出した物体の静止又は移動状態を画像処理部61に判定させる(ステップS15)。   Next, the control device 6 detects an object existing on the scanning line indicated by the address information of the measurement data D received in step S11 (step S13). This object detection is performed by causing the image processing unit 61 to perform the processing described with reference to FIGS. 5 to 7 on the measurement data D received in step S11. Further, at the time of this object detection, the image processing unit 61 also makes a determination of a difference from an object that has already been detected to be present on the scanning line indicated by the address information of the previously received measurement data D. Then, the control device 6 stores the object position and size data detected by the image processing unit 61 in the analysis result storage area 64b as the latest object detection data (step S14). At the same time, the oldest object detection data in the analysis result storage area 64b is deleted. Further, the control device 6 compares the latest object detection data for one frame stored in the analysis result storage area 64b with the object detection data for one frame immediately before, thereby detecting the stationary or moving state of the detected object. Is determined by the image processing unit 61 (step S15).

そして、制御装置6は、画像処理部61による物体の検出結果やその静止又は移動状態の判定結果を出力機器7に出力する(ステップS16)。以上で一連の処理を終了し、以後、制御装置6は、上述したステップS11乃至ステップS16の処理を繰り返し実行する。   Then, the control device 6 outputs the detection result of the object by the image processing unit 61 and the determination result of the stationary or moving state to the output device 7 (step S16). The series of processes is completed as described above, and thereafter, the control device 6 repeatedly executes the processes in steps S11 to S16 described above.

以上の説明からも明らかなように、本実施形態の物体検出装置では、図8のフローチャートにおけるステップS13が、請求項中の制御手段に対応する処理となっている。また、本実施形態の物体検出装置では、制御装置6の画像処理部61が、請求項中の物体検出手段に相当している。   As is clear from the above description, in the object detection apparatus of this embodiment, step S13 in the flowchart of FIG. 8 is processing corresponding to the control means in the claims. Further, in the object detection device of the present embodiment, the image processing unit 61 of the control device 6 corresponds to the object detection means in the claims.

ちなみに、上述した構成の物体検出装置のレーザレーダヘッド5を、図2に示すように踏切Aの近傍の支柱Bに設置すると、図9の平面図に示すように、走査光L1の走査範囲Eが踏切Aの車両や通行人(いずれも図示せず)が立ち入るエリアの全体をカバーすることになる。そして、本実施形態の物体検出装置では、走査光L1の走査範囲Eのうち不図示の車両や通行人の通行可能なエリアを、走査光L1(の反射光L2)によって障害物の存在を監視する監視領域Fとしている。したがって、制御装置6は、上述した図8のフローチャートによる処理を実行することで、実際には、監視領域Fに存在する障害物の検出と、その障害物の静止又は移動状態の判定とを行うことになる。   Incidentally, when the laser radar head 5 of the object detection apparatus having the above-described configuration is installed on the column B in the vicinity of the railroad crossing A as shown in FIG. 2, as shown in the plan view of FIG. 9, the scanning range E of the scanning light L1. Will cover the entire area where vehicles and passersby (not shown) of the crossing A enter. In the object detection apparatus of the present embodiment, the presence of an obstacle is monitored by the scanning light L1 (reflected light L2) in the scanning range E of the scanning light L1 in an area where a vehicle or a passerby is not shown. Monitoring area F to be used. Therefore, the control device 6 actually detects the obstacle present in the monitoring area F and determines the stationary or moving state of the obstacle by executing the processing according to the flowchart of FIG. 8 described above. It will be.

なお、上述した監視領域Fは線路面に沿った平面をXY座標面とする直交座標系における領域である。これに対して、走査光L1の反射光L2によって測定される物体の位置は、レーザレーダヘッド5を原点とし走査光L1の走査範囲Eを含む空間の極座標系における位置である。そのため、上述した制御装置6の画像処理部61は、計測データDの解析結果から検出した物体の位置を、レーザレーダヘッド5を原点とする極座標系上の位置から、監視領域Fを含む直交座標系上の位置に変換する。これにより、走査光L1の反射光L2に基づいて生成された計測データDから、監視領域Fにおける障害物の位置及び高さを検出し、また、障害物の静止又は移動状態を判定することができる。   In addition, the monitoring area | region F mentioned above is an area | region in the orthogonal coordinate system which makes the plane along a track surface the XY coordinate plane. On the other hand, the position of the object measured by the reflected light L2 of the scanning light L1 is a position in the polar coordinate system of the space including the scanning range E of the scanning light L1 with the laser radar head 5 as the origin. Therefore, the image processing unit 61 of the control device 6 described above converts the position of the object detected from the analysis result of the measurement data D from the position on the polar coordinate system with the laser radar head 5 as the origin to the orthogonal coordinates including the monitoring region F. Convert to a position on the system. Thereby, the position and height of the obstacle in the monitoring area F are detected from the measurement data D generated based on the reflected light L2 of the scanning light L1, and the stationary or moving state of the obstacle is determined. it can.

そして、上述した構成による本実施形態の物体検出装置では、信号処理部3で生成された計測データDを制御装置6がパケット通信により受信して、その計測データDを計測データ記憶領域64aの対応するアドレス箇所に記憶させる度に、解析結果記憶領域64bに記憶された物体検出データを用いて、監視領域Fに存在する障害物(走査範囲Eに存在する物体の検出)の検出を行う。但し、この検出には、走査線単位で計測データDが必要となる。したがって、最新の計測データDを計測データ記憶領域64aに記憶させた後の段階で、水平走査方向における終端のアドレス箇所にまで計測データDが記憶され終えていない走査線の計測データDは、監視領域Fの障害物検出に使用しない。   In the object detection device of the present embodiment having the above-described configuration, the control device 6 receives the measurement data D generated by the signal processing unit 3 by packet communication, and the measurement data D is associated with the measurement data storage area 64a. Each time it is stored in the address location, the object detection data stored in the analysis result storage area 64b is used to detect an obstacle existing in the monitoring area F (detection of an object existing in the scanning range E). However, this detection requires measurement data D for each scanning line. Therefore, at the stage after the latest measurement data D is stored in the measurement data storage area 64a, the measurement data D of the scanning line for which the measurement data D has not been stored up to the last address location in the horizontal scanning direction is monitored. Not used for area F obstacle detection.

なお、1回のパケット通信により制御装置6が信号処理部3から受信する計測データDのデータ量が、走査線の1本分の計測データDのデータ量と一致する場合は、計測データDが受信される度に、計測データ記憶領域64aの各走査線の計測データDが1本ずつ順次最新のデータに更新されることになる。このため、制御装置6の画像処理部61は、最新の計測データDが走査線単位で受信される度に、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行うことになる。   In addition, when the data amount of the measurement data D received by the control device 6 from the signal processing unit 3 by one packet communication matches the data amount of the measurement data D for one scanning line, the measurement data D is Each time it is received, the measurement data D of each scanning line in the measurement data storage area 64a is sequentially updated to the latest data one by one. For this reason, the image processing unit 61 of the control device 6 detects an obstacle existing in the monitoring area F (an object existing in the scanning range E) every time the latest measurement data D is received in units of scanning lines. It will be.

したがって、ガルバノミラー12の揺動端や走査光L1の垂直走査範囲における上端又は下端をセンサ等で検出して、その検出タイミングを、走査範囲Eの1フレーム分の走査線に関する最新の計測データDが信号処理部3から入力される区切りとして利用する必要がない。そのため、ガルバノミラー12の揺動端や走査光L1の垂直走査範囲における上端又は下端の誤検出の可能性を考慮することなく、走査範囲Eの1フレーム分の走査線に関する最新の計測データDから検出した物体のデータを正確に利用して、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を正しく行うことができる。   Therefore, the oscillating end of the galvanometer mirror 12 or the upper or lower end of the scanning light L1 in the vertical scanning range is detected by a sensor or the like, and the detection timing is the latest measurement data D relating to the scanning line for one frame in the scanning range E. Does not need to be used as a separator input from the signal processing unit 3. Therefore, from the latest measurement data D on the scanning line for one frame in the scanning range E without considering the possibility of erroneous detection of the swing end of the galvanometer mirror 12 or the upper end or the lower end in the vertical scanning range of the scanning light L1. The detected object data can be accurately used to correctly detect an obstacle existing in the monitoring area F (an object existing in the scanning range E).

なお、本発明の物体検出方法を実施するための構成は、本実施形態で説明した物体検出装置の構成に限定されない。例えば、制御装置6が受信する計測データDや、計測データDを用いて検出した物体のデータは、必ずしもRAM64の計測データ記憶領域64aや解析結果記憶領域64bのような構成のメモリに記憶させなくてもよい。さらに、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出手順は、図8のフローチャートに示した手順に限定されない。   The configuration for carrying out the object detection method of the present invention is not limited to the configuration of the object detection device described in the present embodiment. For example, measurement data D received by the control device 6 and object data detected using the measurement data D are not necessarily stored in a memory having a configuration such as the measurement data storage area 64a or the analysis result storage area 64b of the RAM 64. May be. Furthermore, the detection procedure of the obstacle (the object existing in the scanning range E) existing in the monitoring area F is not limited to the procedure shown in the flowchart of FIG.

例えば、本実施形態では、制御装置6の画像処理部61が監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行う周期を、信号処理部3からの計測データDをパケット通信により受信する度(計測データ記憶領域64aの各走査線の計測データDが1本ずつ順次最新のデータに更新される度)とした。   For example, in the present embodiment, the period in which the image processing unit 61 of the control device 6 detects an obstacle present in the monitoring region F (an object existing in the scanning range E) is used as the measurement data D from the signal processing unit 3. Each time it is received by packet communication (every time the measurement data D of each scanning line in the measurement data storage area 64a is sequentially updated to the latest data one by one).

しかし、信号処理部3からの計測データDが、パケット通信の所定回数分受信される度(計測データ記憶領域64aの各走査線の計測データDが所定本数分ずつ最新のデータに更新される度)に、制御装置6の画像処理部61が、受信した所定本数分の走査線に対応する計測データDからそれらの走査線上に存在する物体の検出を行い、さらに、最新の1フレーム分の物体検出データを用いて、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行うように構成してもよい。   However, every time the measurement data D from the signal processing unit 3 is received a predetermined number of times of packet communication (every time a predetermined number of measurement data D of each scanning line in the measurement data storage area 64a is updated to the latest data). ), The image processing unit 61 of the control device 6 detects the objects existing on the scanning lines from the measurement data D corresponding to the predetermined number of received scanning lines, and further, the object for the latest one frame. You may comprise so that the detection (object which exists in the scanning range E) which exists in the monitoring area | region F may be detected using detection data.

このように構成すれば、本実施形態の物体検出装置と同様の効果が得られる他、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出頻度が下がるので、制御装置6の処理的な負担を軽減できるという効果を得ることもできる。一方、本実施形態の物体検出装置のような構成とすれば、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出頻度が高い分、障害物(物体)の静止又は移動状態を高い分解能で判定することができる。   With this configuration, the same effect as that of the object detection device of the present embodiment can be obtained, and the frequency of detecting obstacles (objects existing in the scanning range E) existing in the monitoring region F is reduced. It is also possible to obtain an effect of reducing the processing burden. On the other hand, if the configuration of the object detection device of the present embodiment is adopted, the obstacle (object) is stationary or moved as the obstacle (object present in the scanning range E) in the monitoring area F is detected more frequently. The state can be determined with high resolution.

いずれにせよ、監視領域Fに存在する障害物(走査範囲Eに存在する物体)の検出を行う周期は、以上に説明した周期に限らず、ガルバノミラー12が揺動端に達するタイミング(走査光L1が垂直走査範囲における上端又は下端の走査線を走査し終えるタイミング)と無関係である限り、任意の周期とすることができる。   In any case, the period for detecting the obstacle present in the monitoring region F (the object present in the scanning range E) is not limited to the above-described period, but the timing at which the galvano mirror 12 reaches the swing end (scanning light) As long as L1 is irrelevant to the timing at which the scanning line at the upper end or the lower end in the vertical scanning range is finished, an arbitrary cycle can be used.

また、本実施形態では、踏切Aの近傍の支柱Bにレーザレーダヘッド5を設置して、踏切Aの車両Cや通行人(図示せず)の通行可能な監視領域Fにおける障害物の存在を検出する場合について説明した。しかし、本発明は、踏切Aに限らず、物体の存在を監視する必要のある種々の監視領域を走査光の反射光によって監視する場合に、広く適用可能である。   Further, in the present embodiment, the laser radar head 5 is installed on the column B near the railroad crossing A to check for the presence of obstacles in the monitoring area F through which the vehicle C and passersby (not shown) of the railroad crossing A can pass. The case of detection has been described. However, the present invention is not limited to the railroad crossing A, and can be widely applied to the case where various monitoring areas where the presence of an object needs to be monitored are monitored by reflected light of scanning light.

1 投光部
1a レーザダイオード
1b 投光レンズ
1c LDドライバ
2 受光部
2a 受光レンズ
2b 受光部本体
3 信号処理部
5 レーザレーダヘッド
6 制御装置
7 出力機器
11 ポリゴンミラー
11a モータ
11b モータドライバ
12 ガルバノミラー
12a モータ
12b モータドライバ
31 主信号処理部
32 時間計測部
61 画像処理部
62 故障診断部
63 誤差補正部
64 RAM
64a 計測データ記憶領域
64b 解析結果記憶領域
A 踏切
B 支柱
C 車両
D 計測データ
E 走査範囲
F 監視領域
L レーザ光
L1 走査光
L2 反射光
P0〜Pn ポイント
Sc 投光条件信号
Sd 所要時間信号
Sh 制御条件
Sm 制御信号
Sq 受光強度信号
Sr 受光信号
Ss 投光同期信号
St トリガー信号
W 投光窓
DESCRIPTION OF SYMBOLS 1 Light projection part 1a Laser diode 1b Light projection lens 1c LD driver 2 Light reception part 2a Light reception lens 2b Light reception part main body 3 Signal processing part 5 Laser radar head 6 Control apparatus 7 Output device 11 Polygon mirror 11a Motor 11b Motor driver 12 Galvano mirror 12a Motor 12b Motor driver 31 Main signal processing unit 32 Time measurement unit 61 Image processing unit 62 Fault diagnosis unit 63 Error correction unit 64 RAM
64a Measurement data storage area 64b Analysis result storage area A Railroad crossing B Post C Vehicle D Measurement data E Scanning range F Monitoring area L Laser light L1 Scanning light L2 Reflected light P0 to Pn Point Sc Projection condition signal Sd Required time signal Sh Control condition Sm Control signal Sq Light reception intensity signal Sr Light reception signal Ss Light emission synchronization signal St Trigger signal W Light emission window

Claims (4)

複数本の走査線上を順次走査する走査光により監視領域の全体を走査し、各走査光の反射光により前記監視領域に存在する物体を検出する方法において、
前記監視領域上に位置する走査線の本数とは異なる所定本数の走査線上を前記走査光が走査する度に、前記各走査線の最新の走査光の反射光に基づいて、前記監視領域に存在する物体を検出する、
ことを特徴とする物体検出方法。
In a method of scanning an entire monitoring area with scanning light that sequentially scans a plurality of scanning lines, and detecting an object existing in the monitoring area by reflected light of each scanning light,
Each time the scanning light scans a predetermined number of scanning lines different from the number of scanning lines located on the monitoring area, it exists in the monitoring area based on the reflected light of the latest scanning light of each scanning line. Detect objects to
An object detection method characterized by the above.
前記所定本数は1本であることを特徴とする請求項1記載の物体検出方法。   The object detection method according to claim 1, wherein the predetermined number is one. 複数本の走査線上を順次走査する走査光により監視領域の全体を走査するレーザレーダと、
前記監視領域上に位置する前記各走査線上をそれぞれ走査した前記各走査光の反射光に基づいて、前記監視領域に存在する物体を検出する物体検出手段と、
前記監視領域上に位置する前記各走査線上をそれぞれ走査した最新の前記走査光の反射光のデータを記憶する反射光データ記憶手段と、
前記監視領域上に位置する走査線の本数とは異なる所定本数の走査線上を前記走査光が走査する度に、前記反射光データ記憶手段に記憶された前記各走査線上を走査した最新の前記各走査光の反射光のデータに基づいて、前記物体検出手段により前記監視領域に存在する物体を検出させる制御手段と、
を備えることを特徴とする物体検出装置。
A laser radar that scans the entire monitoring area with scanning light that sequentially scans a plurality of scanning lines;
Object detection means for detecting an object present in the monitoring area based on the reflected light of each scanning light scanned on each scanning line located on the monitoring area;
Reflected light data storage means for storing the latest reflected light data of the scanning light respectively scanned on the scanning lines located on the monitoring area;
Each time the scanning light scans a predetermined number of scanning lines different from the number of scanning lines located on the monitoring area, each of the latest scanning lines stored on the reflected light data storage means is scanned. Control means for detecting an object present in the monitoring area by the object detection means based on data of reflected light of the scanning light;
An object detection apparatus comprising:
前記所定本数は1本であることを特徴とする請求項3記載の物体検出装置。   The object detection apparatus according to claim 3, wherein the predetermined number is one.
JP2009278639A 2009-12-08 2009-12-08 Method and device for detecting object Pending JP2011122851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009278639A JP2011122851A (en) 2009-12-08 2009-12-08 Method and device for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009278639A JP2011122851A (en) 2009-12-08 2009-12-08 Method and device for detecting object

Publications (1)

Publication Number Publication Date
JP2011122851A true JP2011122851A (en) 2011-06-23

Family

ID=44286893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009278639A Pending JP2011122851A (en) 2009-12-08 2009-12-08 Method and device for detecting object

Country Status (1)

Country Link
JP (1) JP2011122851A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013095587A (en) * 2011-11-07 2013-05-20 Daifuku Co Ltd Article input facility and method for detecting overflow of article from article collection container in the same
JP2017015416A (en) * 2015-06-29 2017-01-19 株式会社リコー Object detection device, sensing device, movable body device, and object detection method
JP2017032359A (en) * 2015-07-30 2017-02-09 株式会社ユーシン Optical radar device, on-vehicle radar device and infrastructure radar device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140790A (en) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit Method for detecting crossing pedestrian
JP2004198323A (en) * 2002-12-19 2004-07-15 Denso Corp Object recognition device for vehicle
JP2004212129A (en) * 2002-12-27 2004-07-29 Ishikawajima Harima Heavy Ind Co Ltd Environmental condition grasping device
JP2004280372A (en) * 2003-03-14 2004-10-07 Natl Inst For Land & Infrastructure Management Mlit Detection method of moving body
JP2009072280A (en) * 2007-09-19 2009-04-09 Fujifilm Corp Optical tomography imaging system, contact area detecting method, and image processing method using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140790A (en) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit Method for detecting crossing pedestrian
JP2004198323A (en) * 2002-12-19 2004-07-15 Denso Corp Object recognition device for vehicle
JP2004212129A (en) * 2002-12-27 2004-07-29 Ishikawajima Harima Heavy Ind Co Ltd Environmental condition grasping device
JP2004280372A (en) * 2003-03-14 2004-10-07 Natl Inst For Land & Infrastructure Management Mlit Detection method of moving body
JP2009072280A (en) * 2007-09-19 2009-04-09 Fujifilm Corp Optical tomography imaging system, contact area detecting method, and image processing method using the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013095587A (en) * 2011-11-07 2013-05-20 Daifuku Co Ltd Article input facility and method for detecting overflow of article from article collection container in the same
JP2017015416A (en) * 2015-06-29 2017-01-19 株式会社リコー Object detection device, sensing device, movable body device, and object detection method
JP2017032359A (en) * 2015-07-30 2017-02-09 株式会社ユーシン Optical radar device, on-vehicle radar device and infrastructure radar device

Similar Documents

Publication Publication Date Title
US9891432B2 (en) Object detection device and sensing apparatus
EP3111165B1 (en) Distance measuring device and parallax calculation system
JP4691701B2 (en) Number detection device and method
JP3838432B2 (en) Ranging device
US9207074B2 (en) Distance measurement apparatus, and distance measurement method
JP4882428B2 (en) Environment recognition device
JP6726673B2 (en) Information processing device, information processing method, and program
JP5246430B2 (en) Obstacle detection method and apparatus
JP5716902B2 (en) Monitoring method and monitoring apparatus
JP6824697B2 (en) Object detection device and object detection method for traveling objects
JP2013029375A (en) Obstacle detection method and obstacle detection device
JP5320880B2 (en) Distance measuring device, distance measuring method and vehicle
JP2011122851A (en) Method and device for detecting object
JP6252722B2 (en) Laser distance measuring method and laser distance measuring apparatus
JP2021043838A (en) Information processing device, control method, program and storage medium
JP5556317B2 (en) Object recognition device
JP2011106829A (en) Method for detecting moving body, and laser apparatus for measuring distance
JP2019028039A (en) Distance measurement device and distance measurement method
WO2022190364A1 (en) Information processing device, information processing method, program, and storage medium
JP2010044496A (en) Method and device for detecting vehicle
JP2008286767A (en) Space measuring device for vehicle
JP2010249569A (en) Obstacle detection method and laser distance measuring instrument
JP4811614B2 (en) Obstacle detection method and apparatus
KR20220025894A (en) A lidar measurement system comprising two lidar measurement devices
JP6749191B2 (en) Scanner and surveying equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131217