JP2013156138A - Moving object detecting apparatus - Google Patents

Moving object detecting apparatus Download PDF

Info

Publication number
JP2013156138A
JP2013156138A JP2012016676A JP2012016676A JP2013156138A JP 2013156138 A JP2013156138 A JP 2013156138A JP 2012016676 A JP2012016676 A JP 2012016676A JP 2012016676 A JP2012016676 A JP 2012016676A JP 2013156138 A JP2013156138 A JP 2013156138A
Authority
JP
Japan
Prior art keywords
scanning
moving object
frame
unit
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012016676A
Other languages
Japanese (ja)
Inventor
Masaru Shizume
大 鎮目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2012016676A priority Critical patent/JP2013156138A/en
Publication of JP2013156138A publication Critical patent/JP2013156138A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving object detecting apparatus capable of enhancing resolution to a high-speed moving object and capable of enhancing followability to a high-speed moving object.SOLUTION: In a moving object detecting apparatus, a laser radar 11 includes: a light projection part 2 for projecting a laser beam L; horizontal scanning means 3 for scanning the laser beam L in a horizontal direction H; vertical scanning means 4 for scanning the laser beam L in a vertical direction V; a light receiving part 5 for receiving reflected light R of the laser beam L and transmitting light receiving information d4; a distance calculation part 6 for calculating a distance of the moving object from the light receiving information d4; and a control part 7 for controlling the light projection part 2, the horizontal scanning means 3 and the vertical scanning means 4. The control part 7 controls the horizontal scanning means 3 and the vertical scanning means 4 or scanning speeds of the horizontal scanning means 3 and the vertical scanning means 4 on the basis of a moving speed ν of the moving object and changes scanning density ρ of the laser beam L applied to the moving object.

Description

本発明は、移動物体検出装置に関し、特に、自動車等のような高速で移動する移動物体に対する分解能を向上させることができる移動物体検出装置に関する。   The present invention relates to a moving object detection apparatus, and more particularly to a moving object detection apparatus that can improve the resolution of a moving object that moves at high speed, such as an automobile.

近年、一般道路の交差点や踏切等において、歩行者、自転車、自動二輪車、自動車等の移動物体を監視するために三次元レーザレーダ装置が活用されている。かかる三次元レーザレーダ装置は、一般に、レーザ光の光源を形成する投光部(例えば、レーザ発振器)と、前記レーザ光を監視範囲に向けて走査させる光学スキャナ(例えば、ポリゴンスキャナ、ガルバノスキャナ、三面ミラー等)と、前記レーザ光の反射光を受光する受光部と、該受光部の受光信号から前記レーザ光が照射された物体の距離を算出する距離演算部と、を備えている(例えば、特許文献1及び特許文献2参照)。   In recent years, three-dimensional laser radar devices have been used to monitor moving objects such as pedestrians, bicycles, motorcycles and automobiles at intersections and railroad crossings on general roads. Such a three-dimensional laser radar device generally includes a light projecting unit (for example, a laser oscillator) that forms a light source of laser light, and an optical scanner (for example, a polygon scanner, a galvano scanner, and the like) that scans the laser light toward a monitoring range. A three-surface mirror), a light receiving unit that receives the reflected light of the laser beam, and a distance calculation unit that calculates the distance of the object irradiated with the laser beam from the light reception signal of the light receiving unit (for example, Patent Document 1 and Patent Document 2).

また、特許文献1には、歩行者を誘導する歩行エリアとその周辺エリアとをカバーする監視範囲に、レーザ光を投射しながら走査して光の反射時間を計測し、物体が存在しない時の反射時間と物体が存在する時の反射時間との差を走査各点ごとに求めることにより物体の形状と、大きさと、走査ごとの物体の位置変化によるベクトルとを演算し、その演算信号から、歩行エリアを誘導方向に移動する物体と、歩行エリアを横切る方向に移動する物体とを識別するようにした物体識別方法が記載されている。   Further, Patent Document 1 discloses a method for measuring a light reflection time by projecting a laser beam onto a monitoring range that covers a walking area that guides a pedestrian and its surrounding area. By calculating the difference between the reflection time and the reflection time when the object is present for each scanning point, the shape and size of the object and the vector due to the change in the position of the object for each scan are calculated. An object identification method is described in which an object moving in a walking direction in a walking area and an object moving in a direction crossing the walking area are identified.

また、特許文献2には、従来のレーザレーダ装置では、計測対象物までの距離が遠くなるほど分解能が粗くなるという問題が指摘されており、レーザの投光周期を短くして遠方での分解能を細かく設定すると単位時間あたりの計測点数が増加するために演算装置の負荷が増加してしまうこと、光学スキャナの速度を遅くして分解能を細かく設定すると計測に要する時間が長くなってしまうこと、が記載されている。そして、これらの問題を解決するために、特許文献2に記載された発明では、距離演算部で得られた距離データに基づいて計測領域に向けて走査するレーザ光の走査ピッチを変更する、具体的には、遠方の計測領域では走査ピッチを密にし、近方の計測領域では走査ピッチを粗にすることによって、分解能を均一化するようにしている。   Further, Patent Document 2 points out that the conventional laser radar apparatus has a problem that the resolution becomes coarser as the distance to the measurement object becomes longer. If it is set finely, the number of measurement points per unit time increases, which increases the load on the arithmetic unit, and if the resolution is set finely by slowing down the speed of the optical scanner, the time required for measurement becomes long. Have been described. In order to solve these problems, the invention described in Patent Document 2 changes the scanning pitch of the laser beam that scans toward the measurement region based on the distance data obtained by the distance calculation unit. Specifically, the resolution is made uniform by making the scanning pitch dense in the distant measurement region and coarsening the scanning pitch in the near measurement region.

特開2004−185363号公報JP 2004-185363 A 特開2008−241273号公報JP 2008-241273 A

ところで、レーザレーダ装置を使用した監視装置や物体検出装置において、一般に、水平方向の一走査をスキャンと称し、監視範囲の一面をスキャンすることをフレームと称している。したがって、フレーム中の一点当たりの計測時間及びフレームレート(単位時間当たりに計測するフレーム数)を決定すれば、一フレーム当たりの計測点数も決定する。   By the way, in a monitoring device or an object detection device using a laser radar device, one horizontal scan is generally called a scan, and scanning one surface of a monitoring range is called a frame. Therefore, if the measurement time and the frame rate (the number of frames measured per unit time) per point in the frame are determined, the number of measurement points per frame is also determined.

特許文献1や特許文献2に記載されたような従来のレーザレーダ装置では、既に、一計測点当たりの計測時間は最短となるように設定されていることが多く、それ以上に計測時間を短縮することは困難である。したがって、監視対象物や設置環境に応じてフレームレートを設定することにより分解能を調整することとなる。このとき、特許文献1に記載されたレーザレーダ装置では、監視範囲内の走査密度は均一となるように調整されており、特許文献2に記載されたレーザレーダ装置では、監視範囲内の遠近に応じて走査密度の粗密を調整するようにしている。   In conventional laser radar devices such as those described in Patent Document 1 and Patent Document 2, the measurement time per measurement point is often set to be the shortest, and the measurement time is further shortened. It is difficult to do. Therefore, the resolution is adjusted by setting the frame rate according to the monitoring object and the installation environment. At this time, in the laser radar device described in Patent Document 1, the scanning density in the monitoring range is adjusted to be uniform, and in the laser radar device described in Patent Document 2, the scanning radar is set in the near and near range within the monitoring range. Accordingly, the density of the scanning density is adjusted.

監視範囲内には、歩行者、自転車、自動二輪車、自動車等の種々の移動物体が混在しており、その移動速度は移動物体の種類や交通状態によって刻々と変化する。また、自動車等のような高速の移動物体の追従性を高めるためには、各フレームで検出された移動物体が同一の移動物体であるのか、後続の移動物体であるのかの判別を行う必要があり、高速の移動物体に対する分解能を向上させたいという要求があった。   Various moving objects such as pedestrians, bicycles, motorcycles, automobiles, and the like are mixed in the monitoring range, and the moving speed changes with the type of moving objects and the traffic state. In addition, in order to improve the followability of a high-speed moving object such as an automobile, it is necessary to determine whether the moving object detected in each frame is the same moving object or a subsequent moving object. There has been a demand to improve the resolution for high-speed moving objects.

しかしながら、特許文献1や特許文献2に記載されたようなレーザレーダ装置では、監視範囲の走査密度が均一であるか、遠近に応じて調整しているだけであり、高速の移動物体に対する分解能を向上させることはできなかった。また、監視範囲内には、歩道や道路等の移動物体が通過する部分と、建物や樹木等の静止物体が存在する部分とが混在しており、移動物体が通過する部分と通過しない部分とを同じ走査密度で計測することは無駄が多く、非効率的であった。   However, in the laser radar apparatus described in Patent Document 1 or Patent Document 2, the scanning density of the monitoring range is uniform or only adjusted according to the distance, and the resolution for a high-speed moving object is reduced. It could not be improved. Also, in the monitoring range, there are a mixture of parts where moving objects such as sidewalks and roads pass and parts where stationary objects such as buildings and trees exist, and parts where moving objects pass and parts that do not pass It was wasteful and inefficient to measure at the same scanning density.

本発明は上述した問題点に鑑み創案されたものであり、高速の移動物体に対する分解能を向上させることができ、高速の移動物体に対する追従性を向上させることができる、移動物体検出装置を提供することを目的とする。   The present invention has been devised in view of the above-described problems, and provides a moving object detection apparatus that can improve the resolution for a high-speed moving object and can improve the follow-up performance for a high-speed moving object. For the purpose.

本発明によれば、監視範囲の水平方向及び垂直方向にレーザ光を走査しながら照射し、該レーザ光の反射光を受光して前記監視範囲内の移動物体を検出する移動物体検出装置であって、前記レーザ光を投光する投光部と、前記レーザ光を前記水平方向に走査させる水平走査手段と、前記レーザ光を前記垂直方向に走査させる垂直走査手段と、前記レーザ光の反射光を受光して受光情報を発信する受光部と、前記受光情報から前記移動物体の距離を算出する距離演算部と、前記投光部、前記水平走査手段及び前記垂直走査手段の制御を行う制御部と、を有するレーザレーダを備え、前記制御部は、前記移動物体の移動速度に基づいて、前記水平走査手段、前記垂直走査手段又は前記水平走査手段及び前記垂直走査手段の走査速度を制御して、前記移動物体に照射される前記レーザ光の走査密度を変更する、ことを特徴とする移動物体検出装置が提供される。   According to the present invention, there is provided a moving object detection device that irradiates a laser beam while scanning in a horizontal direction and a vertical direction of the monitoring range, receives a reflected light of the laser beam, and detects a moving object within the monitoring range. A projecting unit that projects the laser beam, a horizontal scanning unit that scans the laser beam in the horizontal direction, a vertical scanning unit that scans the laser beam in the vertical direction, and reflected light of the laser beam. A light receiving unit that receives light and transmits light reception information, a distance calculation unit that calculates a distance of the moving object from the light reception information, and a control unit that controls the light projecting unit, the horizontal scanning unit, and the vertical scanning unit The control unit controls the scanning speed of the horizontal scanning unit, the vertical scanning unit or the horizontal scanning unit and the vertical scanning unit based on the moving speed of the moving object. ,Previous To change the scanning density of the laser beam irradiated to a moving object, the moving object detection device is provided, characterized in that.

前記制御部は、前記移動速度が遅い場合に前記走査密度を低くして前記移動速度が速い場合に前記走査密度を高くするようにしてもよいし、前記移動速度が閾値より小さい場合に前記走査密度を低くして前記移動速度が前記閾値より大きい場合に前記走査密度を高くするようにしてもよい。   The control unit may lower the scanning density when the moving speed is slow and increase the scanning density when the moving speed is high, or the scanning density when the moving speed is smaller than a threshold value. The scanning density may be increased when the density is lowered and the moving speed is greater than the threshold value.

前記制御部は、前記移動物体に追従して前記走査密度を変更するようにしてもよいし、前記移動物体の分布に応じて領域ごとに前記走査密度を変更するようにしてもよい。   The controller may change the scanning density following the moving object, or may change the scanning density for each region according to the distribution of the moving object.

前記制御部は、前記監視範囲の一面を計測した結果をフレームとして記憶する記憶部と、前記移動物体の移動先を予測した未来フレームを算出する未来フレーム予測処理部と、前記未来フレームに基づいて前記レーザ光の走査パターンを設定する走査パターン制御部と、前記走査パターンに基づいて前記水平走査手段の走査速度を制御する水平走査制御部と、前記走査パターンに基づいて前記垂直走査手段の走査速度を制御する垂直走査制御部と、を有し、前記記憶部に記憶された前後のフレームから前記移動物体の移動方向及び移動速度を算出し、前記未来フレーム予測処理部及び前記走査パターン制御部により設定された前記走査パターンに基づいて、前記水平走査制御部又は前記垂直走査制御部により前記レーザ光の走査速度を制御するようにしてもよい。   The control unit, based on the future frame, a storage unit that stores a result of measuring one surface of the monitoring range as a frame, a future frame prediction processing unit that calculates a future frame in which the moving destination of the moving object is predicted, A scanning pattern control section for setting a scanning pattern of the laser beam; a horizontal scanning control section for controlling a scanning speed of the horizontal scanning means based on the scanning pattern; and a scanning speed of the vertical scanning means based on the scanning pattern. A vertical scanning control unit for controlling the moving object, calculating a moving direction and a moving speed of the moving object from the previous and subsequent frames stored in the storage unit, and the future frame prediction processing unit and the scanning pattern control unit Based on the set scanning pattern, the scanning speed of the laser beam is controlled by the horizontal scanning control unit or the vertical scanning control unit. It may be so.

前記制御部は、前記レーザ光の投光タイミングを制御する投光タイミング制御部と、複数の前記投光タイミングの異なる前記フレームを合成して合成フレームを生成するフレーム合成処理部と、該合成フレームから前記移動物体を検出する認識処理部と、を有していてもよい。   The control unit includes: a projection timing control unit that controls a projection timing of the laser light; a frame synthesis processing unit that generates a synthesized frame by synthesizing a plurality of the frames having different projection timings; and the synthesized frame A recognition processing unit for detecting the moving object.

上述した本発明の移動物体検出装置によれば、移動物体の移動速度に基づいて移動物体に照射されるレーザ光の走査密度の粗密を変更したことにより、自動二輪車や自動車等のように高速で移動する物体に対しては走査密度を高くしたり、歩行者や自転車等のように低速で移動する物体に対しては走査密度を低くしたり、移動物体の存在しない領域における走査密度を低くしたりすることができ、監視範囲内で分解能を部分的に調整することができる。したがって、高速の移動物体に対する分解能を向上させることができ、高速の移動物体に対する追従性を向上させることができる。   According to the above-described moving object detection device of the present invention, the density of the scanning density of the laser light applied to the moving object is changed on the basis of the moving speed of the moving object. Increase the scanning density for moving objects, decrease the scanning density for objects that move at low speeds, such as pedestrians and bicycles, or decrease the scanning density in areas where there are no moving objects. The resolution can be partially adjusted within the monitoring range. Therefore, the resolution for a high-speed moving object can be improved, and the followability for a high-speed moving object can be improved.

また、監視範囲内に、歩行者、自転車、自動二輪車、自動車等の種々の移動物体が混在している場合であっても、高速の移動物体のみを抽出して分解能を向上させることができ、各フレームで検出された移動物体が同一の移動物体であるのか、後続の移動物体であるのかの判別を容易に行うことができる。また、監視範囲内の移動物体の分布に応じて走査密度を変更することができ、必要な部分に必要な分解能を与えることができ、走査効率を向上させることができる。   In addition, even when various moving objects such as pedestrians, bicycles, motorcycles, automobiles, etc. are mixed within the monitoring range, it is possible to extract only high-speed moving objects and improve the resolution, It is possible to easily determine whether the moving object detected in each frame is the same moving object or a subsequent moving object. In addition, the scanning density can be changed according to the distribution of moving objects within the monitoring range, the necessary resolution can be given to the necessary portions, and the scanning efficiency can be improved.

本発明の第一実施形態に係る移動物体検出装置の全体構成図である。1 is an overall configuration diagram of a moving object detection device according to a first embodiment of the present invention. 図1に示したレーザレーダのブロック図である。It is a block diagram of the laser radar shown in FIG. 移動速度と走査密度の関係を示す図であり、(a)は第一例、(b)は第二例、(c)は第三例、を示している。It is a figure which shows the relationship between a moving speed and scanning density, (a) is a 1st example, (b) is a 2nd example, (c) has shown the 3rd example. 第一実施形態に係る移動物体検出装置の作用を示す図であり、(a)は監視範囲、(b)は第一走査パターンによる計測結果(第一フレーム)、を示している。It is a figure which shows the effect | action of the moving object detection apparatus which concerns on 1st embodiment, (a) has shown the monitoring range, (b) has shown the measurement result (1st frame) by a 1st scanning pattern. 図4(b)に示した第一走査パターンによる計測結果(第一フレーム)の変形例を示す図であり、(a)は第一変形例、(b)は第二変形例、を示している。It is a figure which shows the modification of the measurement result (1st frame) by the 1st scanning pattern shown in FIG.4 (b), (a) shows a 1st modification, (b) shows a 2nd modification. Yes. 移動物体に追従して走査密度を変更した場合を示す図であり、(a)は第二走査パターンによる計測結果(第二フレーム)、(b)は第三走査パターンによる計測結果(第三フレーム)、を示している。It is a figure which shows the case where a scanning density is changed following a moving object, (a) is the measurement result (2nd frame) by a 2nd scanning pattern, (b) is the measurement result (3rd frame) by a 3rd scanning pattern. ). 監視範囲の領域ごとに走査密度を変更した場合を示す図であり、(a)は高速領域を設定した監視範囲、(b)は高速領域を設定した場合の計測結果、を示している。It is a figure which shows the case where a scanning density is changed for every area | region of the monitoring range, (a) has shown the monitoring range which set the high-speed area | region, (b) has shown the measurement result when a high-speed area | region is set. 本発明の第二実施形態に係る移動物体検出装置におけるレーザレーダのブロック図である。It is a block diagram of the laser radar in the moving object detection apparatus which concerns on 2nd embodiment of this invention. 第二実施形態に係る移動物体検出装置の作用を示す図であり、(a)は第二走査パターンによる計測結果(第二フレーム)、(b)は第三走査パターンによる計測結果(第三フレーム)、を示している。It is a figure which shows the effect | action of the moving object detection apparatus which concerns on 2nd embodiment, (a) is the measurement result (2nd frame) by a 2nd scanning pattern, (b) is the measurement result (3rd frame) by a 3rd scanning pattern. ). 第二実施形態に係る移動物体検出装置の作用を示す図であり、(a)は第四走査パターンによる計測結果(第四フレーム)、(b)は合成フレーム、を示している。It is a figure which shows the effect | action of the moving object detection apparatus which concerns on 2nd embodiment, (a) has shown the measurement result (4th frame) by a 4th scanning pattern, (b) has shown the synthetic | combination frame.

以下、本発明の実施形態について図1〜図10を用いて説明する。ここで、図1は、本発明の第一実施形態に係る移動物体検出装置の全体構成図である。図2は、図1に示したレーザレーダのブロック図である。図3は、移動速度と走査密度の関係を示す図であり、(a)は第一例、(b)は第二例、(c)は第三例、を示している。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. Here, FIG. 1 is an overall configuration diagram of the moving object detection device according to the first embodiment of the present invention. FIG. 2 is a block diagram of the laser radar shown in FIG. FIG. 3 is a diagram showing the relationship between the moving speed and the scanning density, where (a) shows a first example, (b) shows a second example, and (c) shows a third example.

本発明の第一実施形態に係る移動物体検出装置1は、監視範囲Sの水平方向H及び垂直方向Vにレーザ光Lを走査しながら照射し、レーザ光Lの反射光Rを受光して監視範囲S内の移動物体を検出する移動物体検出装置であって、レーザ光Lを投光する投光部2と、レーザ光Lを水平方向Hに走査させる水平走査手段3と、レーザ光Lを垂直方向Vに走査させる垂直走査手段4と、レーザ光Lの反射光Rを受光して受光情報d4を発信する受光部5と、受光情報d4から移動物体の距離を算出する距離演算部6と、投光部2、水平走査手段3及び垂直走査手段4の制御を行う制御部7と、を有するレーザレーダ11を備え、制御部7は、移動物体の移動速度νに基づいて、水平走査手段3、垂直走査手段4又は水平走査手段3及び垂直走査手段4の走査速度を制御して、移動物体に照射されるレーザ光Lの走査密度ρを変更するようにしたものである。   The moving object detection apparatus 1 according to the first embodiment of the present invention irradiates the laser beam L while scanning it in the horizontal direction H and the vertical direction V of the monitoring range S, receives the reflected light R of the laser beam L, and monitors it. A moving object detection device that detects a moving object within a range S, a light projecting unit 2 that projects a laser beam L, a horizontal scanning unit 3 that scans the laser beam L in a horizontal direction H, and a laser beam L Vertical scanning means 4 for scanning in the vertical direction V, a light receiving unit 5 for receiving the reflected light R of the laser light L and transmitting light reception information d4, and a distance calculation unit 6 for calculating the distance of the moving object from the light reception information d4 A laser radar 11 having a control unit 7 that controls the light projecting unit 2, the horizontal scanning unit 3, and the vertical scanning unit 4, and the control unit 7 uses the horizontal scanning unit based on the moving speed ν of the moving object. 3. Vertical scanning means 4 or horizontal scanning means 3 and vertical scanning hand And controls the fourth scan speed, is obtained so as to change the scanning density ρ of the laser light L is irradiated onto the moving object.

上述したレーザレーダ11は、例えば、監視範囲Sが設定される交差点や踏切等の脇に立設された支柱上に監視範囲Sを俯瞰するように配置され、レーザ光Lを水平方向H及び垂直方向Vにスキャンしながら照射窓8から監視範囲Sに向かって照射し、監視範囲S内の物体(例えば、歩行者、自転車、自動二輪車、自動車等の移動物体や建物、ガードレール、樹木等の静止物体等)の反射光Rを受光することができるように構成されている。   For example, the laser radar 11 described above is arranged so as to overlook the monitoring range S on a support column erected on the side of an intersection or railroad crossing where the monitoring range S is set. Irradiating from the irradiation window 8 toward the monitoring range S while scanning in the direction V, and moving objects such as pedestrians, bicycles, motorcycles, automobiles, etc., stationary buildings, guardrails, trees, etc. The reflected light R of an object or the like can be received.

また、移動物体検出装置1は、例えば、図1に示すように、レーザレーダ11からの出力データを表示する監視モニタ12と、出力データを保存する記憶装置13と、を有する。監視モニタ12及び記憶装置13は、監視範囲Sから離れた場所に設置された建屋14に配置されることが多い。レーザレーダ11から監視モニタ12及び記憶装置13への出力データの転送は、有線又は無線により処理される。なお、移動物体検出装置1は、移動物体のみを検出する装置ではなく、移動物体と同時に静止物体を検出するように構成されていてもよい。   Further, the moving object detection device 1 includes, for example, a monitoring monitor 12 that displays output data from the laser radar 11 and a storage device 13 that stores the output data, as shown in FIG. The monitoring monitor 12 and the storage device 13 are often arranged in a building 14 installed at a location away from the monitoring range S. Transfer of output data from the laser radar 11 to the monitoring monitor 12 and the storage device 13 is processed by wire or wireless. The moving object detection device 1 may be configured not to detect only a moving object but to detect a stationary object simultaneously with the moving object.

前記投光部2は、レーザ光Lを発光して照射する部品である。かかる投光部2は、例えば、光源となるレーザダイオードと、レーザ光Lをコリメートする投光レンズと、レーザダイオードを操作するLDドライバと、から構成される。LDドライバは、制御部7からの投光指令s1に基づいてレーザ光Lを発光するようにレーザダイオードを操作する。なお、LDドライバは、レーザ光Lの発光と同時にパルス状の発光同期信号を距離演算部6に発信するようにしてもよい。   The light projecting unit 2 is a component that emits and emits laser light L. The light projecting unit 2 includes, for example, a laser diode that is a light source, a light projecting lens that collimates the laser light L, and an LD driver that operates the laser diode. The LD driver operates the laser diode so as to emit the laser light L based on the light projection command s <b> 1 from the control unit 7. The LD driver may transmit a pulsed emission synchronization signal to the distance calculation unit 6 simultaneously with the emission of the laser beam L.

前記水平走査手段3は、例えば、ポリゴンスキャナであり、六面体の四側面が鏡面化されたポリゴンミラー3aと、鏡面化された四側面を所定の方向に回転させる駆動モータ3bと、ポリゴンミラー3a及び駆動モータ3bを支持する筐体3cと、を有する。鏡面化された四側面を回転させることにより、投光部2からパルス状に投光されたレーザ光Lは、水平方向Hの角度が偏向され、監視範囲Sの水平方向Hに高速に走査される。   The horizontal scanning means 3 is, for example, a polygon scanner, and includes a polygon mirror 3a in which four sides of a hexahedron are mirror-finished, a drive motor 3b that rotates the mirror-finished four sides in a predetermined direction, a polygon mirror 3a, And a housing 3c that supports the drive motor 3b. By rotating the four mirrored side surfaces, the laser light L projected in a pulse form from the light projecting unit 2 is deflected in the horizontal direction H and scanned at high speed in the horizontal direction H of the monitoring range S. The

ポリゴンミラー3aは、鏡面化されていない一対の二面の中心を回転軸として駆動モータ3bにより高速回転される。駆動モータ3bは、モータドライバ(図示せず)により操作される。モータドライバは、制御部7から送信される速度指令s2に基づいて、駆動モータ3bの回転速度を制御する。また、モータドライバは、ポリゴンミラー3aの角度情報d2を制御部7に発信する。なお、かかる水平走査手段3の構成は単なる一例であり、図示した構成に限定されるものではない。   The polygon mirror 3a is rotated at a high speed by a drive motor 3b with the center of a pair of two non-mirror surfaces as the rotation axis. The drive motor 3b is operated by a motor driver (not shown). The motor driver controls the rotational speed of the drive motor 3b based on the speed command s2 transmitted from the control unit 7. Further, the motor driver transmits angle information d2 of the polygon mirror 3a to the control unit 7. The configuration of the horizontal scanning unit 3 is merely an example and is not limited to the illustrated configuration.

前記垂直走査手段4は、例えば、ガルバノスキャナであり、平面鏡であるガルバノミラー4aと、ガルバノミラー4aの鏡面を揺動させる駆動モータ4bと、を有する。駆動モータ4bにより、ガルバノミラー4aを揺動させることにより、ポリゴンミラー3aを反射したレーザ光Lの垂直方向Vの角度が変更され、監視範囲Sの垂直方向Vに走査される。このとき、レーザ光Lは、例えば、正弦波動作をするように垂直方向Vに走査される。   The vertical scanning unit 4 is, for example, a galvano scanner, and includes a galvano mirror 4a that is a plane mirror, and a drive motor 4b that swings the mirror surface of the galvano mirror 4a. By oscillating the galvanometer mirror 4a by the drive motor 4b, the angle in the vertical direction V of the laser light L reflected from the polygon mirror 3a is changed, and scanning is performed in the vertical direction V of the monitoring range S. At this time, the laser beam L is scanned in the vertical direction V so as to perform, for example, a sine wave operation.

駆動モータ4bは、モータドライバ(図示せず)により操作される。モータドライバは、制御部7から送信される速度指令s3に基づいて、駆動モータ4bの揺動方向及び揺動速度を制御する。また、モータドライバは、ガルバノミラー4aの角度情報d3を制御部7に発信する。なお、かかる垂直走査手段4の構成は単なる一例であり、図示した構成に限定されるものではない。   The drive motor 4b is operated by a motor driver (not shown). The motor driver controls the swing direction and swing speed of the drive motor 4b based on the speed command s3 transmitted from the control unit 7. Further, the motor driver transmits angle information d3 of the galvanometer mirror 4a to the control unit 7. The configuration of the vertical scanning unit 4 is merely an example and is not limited to the illustrated configuration.

前記受光部5は、監視範囲Sに照射されたレーザ光Lの反射光Rを受光する部品である。ここでは、投光部2と受光部5とを個別に設けて投光軸と受光軸とがずれるように構成しているが、投光軸と受光軸とが一致するように投光部2と受光部5が一体に形成されていてもよい。かかる受光部5は、例えば、反射光Rを集光する受光レンズと、集光された反射光Rを受光して電圧に変換する光電変換素子や増幅・圧縮・デコード等の処理を施す機器等を有する受光部本体と、から構成される。   The light receiving unit 5 is a component that receives the reflected light R of the laser light L irradiated to the monitoring range S. Here, the light projecting unit 2 and the light receiving unit 5 are provided separately so that the light projecting axis and the light receiving axis are shifted from each other. However, the light projecting unit 2 is configured so that the light projecting axis and the light receiving axis coincide with each other. And the light receiving portion 5 may be integrally formed. The light receiving unit 5 includes, for example, a light receiving lens that collects the reflected light R, a photoelectric conversion element that receives the collected reflected light R and converts it into a voltage, a device that performs processing such as amplification, compression, and decoding. And a light receiving unit main body.

照射窓8を透過した反射光Rは、投光されるレーザ光Lと同様に、ガルバノミラー4a及びポリゴンミラー3aを介して受光部5の受光レンズに導かれる。そして、反射光Rを受光した受光部本体は、電圧値に変換された受光情報d4を距離演算部6に発信する。受光情報d4には、受光強度や受光時間が含まれている。なお、光電変換素子は、受光素子とも呼ばれる部品であり、例えば、フォトダイオードが使用される。   The reflected light R that has passed through the irradiation window 8 is guided to the light receiving lens of the light receiving unit 5 through the galvanometer mirror 4a and the polygon mirror 3a in the same manner as the projected laser light L. And the light-receiving part main body which received the reflected light R transmits the light reception information d4 converted into the voltage value to the distance calculation part 6. The light reception information d4 includes light reception intensity and light reception time. The photoelectric conversion element is a component called a light receiving element, and for example, a photodiode is used.

前記距離演算部6は、計測点の距離情報d5を算出する部品である。距離演算部6は、制御部7から発信された投光指令s1と受光部5から発信された受光情報d4とを受信し、レーザ光Lが監視範囲S内の物体(例えば、歩行者、自転車、自動二輪車、自動車等の移動物体や建物、ガードレール、樹木等の静止物体等)に照射されて反射した計測点の距離を算出し、距離情報d5を制御部7に発信する。また、距離情報d5とともに、受光情報d4に含まれる受光強度を距離情報d5と関連付けて制御部7に発信するようにしてもよい。   The distance calculation unit 6 is a component that calculates distance information d5 of the measurement point. The distance calculation unit 6 receives the light projection command s1 transmitted from the control unit 7 and the light reception information d4 transmitted from the light receiving unit 5, and the laser light L is an object within the monitoring range S (for example, a pedestrian, a bicycle). The distance of a measurement point irradiated and reflected on a moving object such as a motorcycle or an automobile or a stationary object such as a building, a guardrail, or a tree is calculated, and distance information d5 is transmitted to the control unit 7. In addition to the distance information d5, the received light intensity included in the received light information d4 may be transmitted to the control unit 7 in association with the distance information d5.

距離演算部6は、例えば、図2に示すように、投光指令s1と受光情報d4とに基づいてレーザ光Lを発光してから反射光Rを受光するまでの時間を計測する時間計測器6aと、時間計測器6aが計測した時間に基づいてレーザ光Lを反射した計測点までの距離を計算する距離データ計算部6bと、から構成される。   For example, as shown in FIG. 2, the distance calculation unit 6 measures a time from when the laser light L is emitted until the reflected light R is received based on the light projection command s1 and the light reception information d4. 6a and a distance data calculation unit 6b that calculates the distance to the measurement point that reflected the laser beam L based on the time measured by the time measuring device 6a.

時間計測器6aは、投光指令s1が発信された時間と反射光Rを受光した時間とからレーザ光Lの飛行時間を算出し、距離データ計算部6bは、飛行時間とレーザ光Lの速度とからレーザ光Lの飛行距離を算出する。この飛行距離はレーザ光Lの往復距離であるため、具体的には飛行距離の半分の値が、計測点までの距離として算出される。このとき、レーザレーダ11内の飛行距離(投光部2からガルバノミラー4aまでのレーザ光Lの飛行距離)を幾何学的に算出し、その分を差し引くことにより、距離情報d5の精度を向上させるようにしてもよい。   The time measuring device 6a calculates the flight time of the laser light L from the time when the projection command s1 is transmitted and the time when the reflected light R is received, and the distance data calculation unit 6b calculates the flight time and the speed of the laser light L. The flight distance of the laser beam L is calculated from Since this flight distance is the reciprocation distance of the laser beam L, specifically, a value half the flight distance is calculated as the distance to the measurement point. At this time, the accuracy of the distance information d5 is improved by geometrically calculating the flight distance in the laser radar 11 (the flight distance of the laser beam L from the light projecting unit 2 to the galvanometer mirror 4a) and subtracting that amount. You may make it make it.

また、距離演算部6は、受光時間が著しく短い受光情報d4については距離情報d5を算出しないようにするゲート機能を有していてもよい。かかるゲート機能により、レーザレーダ11の内部等に反射した散乱光を除外することができる。   In addition, the distance calculation unit 6 may have a gate function that prevents the distance information d5 from being calculated for the light reception information d4 with a significantly short light reception time. With such a gate function, scattered light reflected inside the laser radar 11 or the like can be excluded.

前記制御部7は、投光部2に投光指令s1を発信し、水平走査手段3及び垂直走査手段4の駆動モータ3b,4bに速度指令s2,s3を発信することにより、投光部2、水平走査手段3及び垂直走査手段4の制御を行う。また、制御部7は、水平走査手段3及び垂直走査手段4の角度情報d2,d3を受信し、距離演算部6の距離情報d5を受信し、レーザ光Lを反射した物体の位置情報d6を出力する。かかる位置情報d6の出力は、例えば、建屋14内の監視モニタ12に表示される。   The control unit 7 transmits a light projection command s1 to the light projecting unit 2, and transmits speed commands s2 and s3 to the drive motors 3b and 4b of the horizontal scanning unit 3 and the vertical scanning unit 4, so that the light projecting unit 2 The horizontal scanning unit 3 and the vertical scanning unit 4 are controlled. Further, the control unit 7 receives the angle information d2 and d3 of the horizontal scanning unit 3 and the vertical scanning unit 4, receives the distance information d5 of the distance calculation unit 6, and receives the position information d6 of the object reflecting the laser beam L. Output. The output of the position information d6 is displayed on the monitoring monitor 12 in the building 14, for example.

制御部7は、例えば、図2に示すように、監視範囲Sの一面を計測した結果をフレームとして記憶する記憶部71と、移動物体の移動先を予測した未来フレームを算出する未来フレーム予測処理部72と、未来フレームに基づいてレーザ光Lの走査パターンを設定する走査パターン制御部73と、走査パターンに基づいて水平走査手段3の走査速度を制御する水平走査制御部74と、走査パターンに基づいて垂直走査手段4の走査速度を制御する垂直走査制御部75と、を有し、記憶部71に記憶された前後のフレームから移動物体の移動方向及び移動速度νを算出し、未来フレーム予測処理部72及び走査パターン制御部73により設定された走査パターンに基づいて、水平走査制御部74又は垂直走査制御部75によりレーザ光Lの走査速度νを制御する。また、制御部7は、走査パターンに基づいてレーザ光Lの投光タイミングを制御する投光タイミング制御部76と、計測結果であるフレームから移動物体を検出する認識処理部77と、を有する。   For example, as illustrated in FIG. 2, the control unit 7 stores a result of measuring one surface of the monitoring range S as a frame, and a future frame prediction process for calculating a future frame in which a moving object is predicted. A scanning pattern control unit 73 that sets a scanning pattern of the laser beam L based on the future frame, a horizontal scanning control unit 74 that controls the scanning speed of the horizontal scanning unit 3 based on the scanning pattern, and a scanning pattern And a vertical scanning control unit 75 for controlling the scanning speed of the vertical scanning unit 4 based on the above and calculating the moving direction and the moving speed ν of the moving object from the previous and next frames stored in the storage unit 71 to predict the future frame. Based on the scanning pattern set by the processing unit 72 and the scanning pattern control unit 73, the horizontal scanning control unit 74 or the vertical scanning control unit 75 scans the laser light L. To control the degree ν. In addition, the control unit 7 includes a light projection timing control unit 76 that controls the light projection timing of the laser light L based on the scanning pattern, and a recognition processing unit 77 that detects a moving object from the frame that is the measurement result.

制御部7は、例えば、移動速度νが遅い場合に走査密度ρを低くして移動速度νが速い場合に走査密度ρを高くするように、水平走査制御部74及び垂直走査制御部75により水平走査手段3及び垂直走査手段4の走査速度を制御する。ここで、走査密度ρを高くしたい場合には各走査手段の走査速度を遅くし、走査密度ρを低くしたい場合には各走査手段の走査速度を速くする。例えば、監視範囲S内に自動車等の高速の移動物体が存在する場合には、その移動物体に照射されるレーザ光の計測点数を増加させて分解能を向上させるために、各走査手段をゆっくりと走査させる。一方、移動物体が存在しない領域や高速の移動物体が存在しない領域では分解能を高くする必要がないため、各走査手段を速く走査させて照射されるレーザ光の計測点数を減少させる。   For example, the control unit 7 uses the horizontal scanning control unit 74 and the vertical scanning control unit 75 to reduce the scanning density ρ when the moving speed ν is slow and to increase the scanning density ρ when the moving speed ν is high. The scanning speed of the scanning means 3 and the vertical scanning means 4 is controlled. Here, when it is desired to increase the scanning density ρ, the scanning speed of each scanning means is decreased, and when it is desired to decrease the scanning density ρ, the scanning speed of each scanning means is increased. For example, when a high-speed moving object such as an automobile exists in the monitoring range S, each scanning unit is slowly moved to increase the number of measurement points of the laser light irradiated to the moving object and improve the resolution. Let it scan. On the other hand, since it is not necessary to increase the resolution in an area where there is no moving object or an area where there is no high-speed moving object, the number of measurement points of the laser light irradiated by scanning each scanning means is reduced.

具体的には、水平走査制御部74は、水平走査手段3の駆動モータ3bの回転数を制御し、ポリゴンミラー3aの回転数を制御する。また、垂直走査制御部75は、垂直走査手段4の駆動モータ4bの回転数及び回転方向を制御し、ガルバノミラー4aの揺動速度及び揺動方向を制御する。   Specifically, the horizontal scanning control unit 74 controls the rotational speed of the drive motor 3b of the horizontal scanning means 3, and controls the rotational speed of the polygon mirror 3a. The vertical scanning control unit 75 controls the rotational speed and direction of the drive motor 4b of the vertical scanning unit 4, and controls the swing speed and swing direction of the galvano mirror 4a.

移動物体の移動速度νと走査密度ρとの関係は、図3(a)〜(c)に示したように、設定することができる。図3(a)に示した第一例は、移動速度νに比例するように走査密度ρを設定したものである。また、図3(b)に示した第二例は、移動速度が閾値αより小さい場合に走査密度ρを低くして移動速度が閾値αより大きい場合に走査密度ρを高くするように設定したものである。閾値αは、例えば、自動車と自動車よりも低速の移動物体(例えば、歩行者、自転車、自動二輪車等)とを区別できるように設定される。また、図3(c)に示した第三例は、閾値α1〜α4を複数設定したものである。このように、移動速度νに応じて段階的に走査密度ρを変更することにより、例えば、歩行者、自転車、自動二輪車、低速の自動車、高速の自動車等に細かく区別することができる。なお、低速及び高速の定義は、監視範囲Sの設定場所や交通状況に応じて任意に設定されるものであるが、交差点や一般道路において、走査密度ρを高くしたい(分解能を高めたい)移動物体の移動速度は、例えば、時速約50km〜時速約60km以上である。   The relationship between the moving speed ν of the moving object and the scanning density ρ can be set as shown in FIGS. In the first example shown in FIG. 3A, the scanning density ρ is set to be proportional to the moving speed ν. In the second example shown in FIG. 3B, the scanning density ρ is set low when the moving speed is smaller than the threshold value α, and the scanning density ρ is set high when the moving speed is larger than the threshold value α. Is. The threshold value α is set so that, for example, a car and a moving object (for example, a pedestrian, a bicycle, a motorcycle, etc.) that is slower than the car can be distinguished. In the third example shown in FIG. 3C, a plurality of threshold values α1 to α4 are set. In this way, by changing the scanning density ρ in a stepwise manner according to the moving speed ν, for example, it is possible to finely distinguish pedestrians, bicycles, motorcycles, low-speed automobiles, high-speed automobiles, and the like. Note that the definitions of low speed and high speed are arbitrarily set according to the setting location of the monitoring range S and traffic conditions, but it is desired to increase the scanning density ρ (to increase the resolution) at intersections and general roads. The moving speed of the object is, for example, about 50 km / h to about 60 km / h or more.

未来フレーム予測処理部72は、移動物体の移動先を予測した走査パターンを有する未来フレームを予測する部分である。記憶部71に記憶されたフレームから計測点の座標を算出し、フレームレートを考慮することにより、移動物体の移動速度及び移動方向を容易に算出することができる。例えば、制御部7が移動物体に追従して走査密度ρを変更する場合には、次の順番の走査処理によって監視範囲Sにレーザ光Lが照射されるときには、高速の移動物体は位置がずれることとなる。したがって、そのずれた位置に向かってレーザ光Lを密に照射する必要がある。そこで、未来フレーム予測処理部72では、移動物体の移動先を予測して、次の順番の走査処理によって取得したい未来フレームを予測するようにしている。   The future frame prediction processing unit 72 is a part that predicts a future frame having a scanning pattern in which the moving destination of the moving object is predicted. By calculating the coordinates of the measurement point from the frame stored in the storage unit 71 and considering the frame rate, the moving speed and moving direction of the moving object can be easily calculated. For example, when the control unit 7 changes the scanning density ρ following the moving object, the position of the high-speed moving object is shifted when the monitoring range S is irradiated with the laser light L by the next sequential scanning process. It will be. Therefore, it is necessary to irradiate the laser beam L densely toward the shifted position. Therefore, the future frame prediction processing unit 72 predicts the moving destination of the moving object and predicts the future frame to be acquired by the next sequential scanning process.

走査パターン制御部73は、監視範囲Sに対してどのようにレーザ光Lを照射するか、すなわち、監視範囲Sの座標上のどの点にレーザ光Lを照射するか、を制御する部分である。未来フレーム予測処理部72によって、レーザ光Lの照射点、すなわち、走査パターンが設定されると、走査パターン情報s4が、投光タイミング制御部76、水平走査制御部74及び垂直走査制御部75に発信される。   The scanning pattern control unit 73 is a part that controls how the laser beam L is irradiated onto the monitoring range S, that is, which point on the coordinates of the monitoring range S is irradiated with the laser beam L. . When the irradiation point of the laser beam L, that is, the scanning pattern is set by the future frame prediction processing unit 72, the scanning pattern information s4 is sent to the light projection timing control unit 76, the horizontal scanning control unit 74, and the vertical scanning control unit 75. Called.

投光タイミング制御部76、水平走査制御部74及び垂直走査制御部75は、走査パターン情報s4に基づいて、投光部2(レーザダイオード)の投光タイミング、水平走査手段3の駆動モータ3bの回転速度、垂直走査手段4の駆動モータ4bの揺動速度を制御し、投光タイミング制御部76は投光部2に投光指令s1を発信し、水平走査制御部74は水平走査手段3に速度指令s2を発信し、垂直走査制御部75は垂直走査手段4に速度指令s3を発信する。なお、投光タイミング制御部76は、水平走査手段3及び垂直走査手段4からポリゴンミラー3a及びガルバノミラー4aの角度情報d2,d3を受信し、投光指令s1(投光タイミング)及び角度情報d2,d3を距離演算部6の時間計測器6aに発信するように構成されていてもよい。   The light projection timing control unit 76, the horizontal scanning control unit 74, and the vertical scanning control unit 75, based on the scanning pattern information s4, project the light projecting timing of the light projecting unit 2 (laser diode) and the driving motor 3b of the horizontal scanning unit 3. The rotation speed and the swing speed of the drive motor 4b of the vertical scanning unit 4 are controlled, the light projection timing control unit 76 transmits a light projection command s1 to the light projection unit 2, and the horizontal scanning control unit 74 transmits to the horizontal scanning unit 3. A speed command s2 is transmitted, and the vertical scanning control unit 75 transmits a speed command s3 to the vertical scanning means 4. The light projection timing control unit 76 receives angle information d2 and d3 of the polygon mirror 3a and the galvanometer mirror 4a from the horizontal scanning means 3 and the vertical scanning means 4, and receives a light projection command s1 (light projection timing) and angle information d2. , D3 may be transmitted to the time measuring device 6a of the distance calculation unit 6.

認識処理部77は、計測結果であるフレームに描写された物体の計測点から、移動物体と静止物体との区別、移動物体の位置、移動物体の大きさ、移動物体の種類等を認識して、移動物体の位置情報d6を出力する。監視範囲S内における背景(建物、ガードレール、樹木、電柱等の静止物体)については、初期動作によって、計測結果から自動的に削除するようにしてもよい。   The recognition processing unit 77 recognizes the distinction between a moving object and a stationary object, the position of the moving object, the size of the moving object, the type of the moving object, and the like from the measurement points of the object depicted in the measurement result frame. The position information d6 of the moving object is output. The background (stationary objects such as buildings, guardrails, trees, utility poles, etc.) within the monitoring range S may be automatically deleted from the measurement result by the initial operation.

次に、上述した本発明の第一実施形態に係る移動物体検出装置1の作用について、図4〜図7を参照しつつ説明する。ここで、図4は第一実施形態に係る移動物体検出装置の作用を示す図であり、(a)は監視範囲、(b)は第一走査パターンによる計測結果(第一フレーム)、を示している。図5は、図4(b)に示した第一走査パターンによる計測結果(第一フレーム)の変形例を示す図であり、(a)は第一変形例、(b)は第二変形例、を示している。図6は、移動物体に追従して走査密度を変更した場合を示す図であり、(a)は第二走査パターンによる計測結果(第二フレーム)、(b)は第三走査パターンによる計測結果(第三フレーム)、を示している。図7は、監視範囲の領域ごとに走査密度を変更した場合を示す図であり、(a)は高速領域を設定した監視範囲、(b)は高速領域を設定した場合の計測結果、を示している。   Next, the operation of the moving object detection device 1 according to the first embodiment of the present invention described above will be described with reference to FIGS. Here, FIG. 4 is a diagram showing the operation of the moving object detection device according to the first embodiment, where (a) shows the monitoring range, and (b) shows the measurement result (first frame) by the first scanning pattern. ing. 5A and 5B are diagrams showing a modification of the measurement result (first frame) by the first scanning pattern shown in FIG. 4B, where FIG. 5A is a first modification, and FIG. 5B is a second modification. , Shows. 6A and 6B are diagrams illustrating a case where the scanning density is changed following the moving object. FIG. 6A is a measurement result by the second scanning pattern (second frame), and FIG. 6B is a measurement result by the third scanning pattern. (Third frame). FIG. 7 is a diagram illustrating a case where the scanning density is changed for each region in the monitoring range, where (a) illustrates a monitoring range in which a high-speed region is set, and (b) illustrates a measurement result in which the high-speed region is set. ing.

図4(a)に示したように、監視範囲Sを水平方向Hに48列、垂直方向Vに29行に分割した領域を設定する。この29行×48列の分割領域は、単なる例示であって、監視範囲Sの大きさやレーザレーダ11等の性能によって、任意に設定可能な数値である。また、監視範囲Sとしては、ここでは交差点の場合を図示しており、監視範囲Sには、例えば、歩行者A、自転車B、自動車C、建物D、が存在しているものとする。なお、以下、分割領域の位置(座標)を示す場合には、(垂直方向V(行),水平方向H(列))の形式で表示するものとする。   As shown in FIG. 4A, an area is set in which the monitoring range S is divided into 48 columns in the horizontal direction H and 29 rows in the vertical direction V. This divided region of 29 rows × 48 columns is merely an example, and is a numerical value that can be arbitrarily set depending on the size of the monitoring range S and the performance of the laser radar 11 and the like. In addition, as the monitoring range S, the case of an intersection is illustrated here, and it is assumed that, for example, a pedestrian A, a bicycle B, a car C, and a building D exist in the monitoring range S. Hereinafter, when the position (coordinates) of the divided area is indicated, it is displayed in a format of (vertical direction V (row), horizontal direction H (column)).

図4(b)は、第一走査パターンによる計測結果(第一フレームF1)を示している。かかる第一フレームF1は、標準(通常)の走査パターンを有し、高速の移動物体(例えば、自動車C)については、水平方向H及び垂直方向Vの走査速度を遅くして、自動車Cの周辺領域Ca(一点鎖線の枠で囲った部分)の走査密度ρを高くしている。具体的には、垂直方向Vの7行目〜13行目及び水平方向Hの35列目〜47列目の領域(周辺領域Ca)では、4×7=28点の分解能を有しているが、従来の通常の走査パターンであれば、同領域において、2×3=6点の分解能しか得られない。なお、走査密度ρの高い周辺領域Caと走査密度ρの低い他の領域とにおける走査密度ρの粗密(高低)は相対的なものであり、レーザレーダ11の性能等に応じて、通常の走査処理と比較して周辺領域Ca以外の領域の走査速度を速くして、周辺領域Caよりも走査密度ρが低くなるようにしてもよい。   FIG. 4B shows the measurement result (first frame F1) based on the first scanning pattern. The first frame F1 has a standard (normal) scanning pattern. For a high-speed moving object (for example, the car C), the scanning speed in the horizontal direction H and the vertical direction V is slowed to The scanning density ρ of the area Ca (the part surrounded by the one-dot chain line frame) is increased. Specifically, the 7th to 13th rows in the vertical direction V and the 35th to 47th columns in the horizontal direction H (peripheral region Ca) have a resolution of 4 × 7 = 28 points. However, with the conventional normal scanning pattern, only 2 × 3 = 6 points of resolution can be obtained in the same region. Note that the density (high or low) of the scanning density ρ in the peripheral area Ca with a high scanning density ρ and other areas with a low scanning density ρ is relative, and the normal scanning is performed according to the performance of the laser radar 11 and the like. Compared to the processing, the scanning speed of the region other than the peripheral region Ca may be increased so that the scanning density ρ is lower than that of the peripheral region Ca.

また、第一フレームF1において、移動物体(歩行者A、自転車B、自動車C)の計測点を黒色で図示している。具体的には、歩行者Aの計測点は(13,13)の分割領域、自転車Bの計測点は(21,21)及び(21,25)の分割領域、自動車Cの計測点は(7,41)、(7,43)、(7,45)、(9,39)、(9,41)、(9,43)、(9,45)、(9,47)、(11,35)、(11,37)、(11,39)、(11,41)、(11,45)、(11,47)、(13,37)、(13,39)、(13,41)及び(13,43)の分割領域に描写されている。各移動物体に隣接して図示した矢印は、各移動物体の速度ベクトルである。   In the first frame F1, the measurement points of the moving object (pedestrian A, bicycle B, car C) are shown in black. Specifically, the measurement points of pedestrian A are (13, 13) divided areas, the measurement points of bicycle B are (21, 21) and (21, 25) divided areas, and the measurement points of car C are (7 , 41), (7, 43), (7, 45), (9, 39), (9, 41), (9, 43), (9, 45), (9, 47), (11, 35) ), (11, 37), (11, 39), (11, 41), (11, 45), (11, 47), (13, 37), (13, 39), (13, 41) and It is depicted in the divided region (13, 43). An arrow shown adjacent to each moving object is a velocity vector of each moving object.

静止物体である建物Dについては、検出対象外であるため、ここでは計測点を図示していない。なお、静止物体については、計測点を検出した後で静止物体と認識して検出対象から除外するようにしてもよいし、計測点を検出する工程の中で特定の座標における計測点を検出対象から除外するようにしてもよい。   Since the building D, which is a stationary object, is not a detection target, measurement points are not shown here. As for a stationary object, it may be recognized as a stationary object after the measurement point is detected and excluded from the detection target, or the measurement point at a specific coordinate is detected in the process of detecting the measurement point. You may make it exclude from.

図5(a)に示した第一変形例は、高速の移動物体(自動車C)に対して、水平方向Hのみの走査速度を遅くして、自動車Cの周辺領域Caの走査密度ρを高くしたものである。具体的には、垂直方向Vの7行目〜13行目及び水平方向Hの35列目〜47列目の領域(周辺領域Ca)では、2×7=14点の分解能を有している。   The first modification shown in FIG. 5A increases the scanning density ρ in the peripheral area Ca of the automobile C by slowing the scanning speed only in the horizontal direction H with respect to the high-speed moving object (the automobile C). It is what. Specifically, in the region of the 7th to 13th rows in the vertical direction V and the 35th to 47th columns in the horizontal direction H (peripheral region Ca), the resolution is 2 × 7 = 14 points. .

図5(b)に示した第二変形例は、高速の移動物体(自動車C)に対して、垂直方向Vのみの走査速度を遅くして、自動車Cの周辺領域Caの走査密度ρを高くしたものである。具体的には、垂直方向Vの7行目〜13行目及び水平方向Hの35列目〜47列目の領域(周辺領域Ca)では、4×3=12点の分解能を有している。なお、第二変形例に示したように、垂直方向Vの走査速度を遅くした場合には、自動車Cの周辺領域Caだけでなく、監視範囲Sにおける水平方向Hの全領域に渡って走査密度ρが高くなる。   In the second modified example shown in FIG. 5B, the scanning density ρ of the peripheral area Ca of the automobile C is increased by slowing the scanning speed only in the vertical direction V with respect to the high-speed moving object (the automobile C). It is what. Specifically, the 7th to 13th rows in the vertical direction V and the 35th to 47th columns in the horizontal direction H (peripheral region Ca) have a resolution of 4 × 3 = 12 points. . As shown in the second modified example, when the scanning speed in the vertical direction V is slowed down, the scanning density is not limited to the peripheral area Ca of the vehicle C, but the entire area in the horizontal direction H in the monitoring range S. ρ increases.

このように、移動物体の移動速度νに基づいて、移動物体に照射されるレーザ光Lの走査密度ρを変更する場合には、図4(b)に示したように、水平走査手段3及び垂直走査手段4の両方の走査速度を制御するようにしてもよいし、図5(a)に示したように、水平走査手段3のみの走査速度を制御するようにしてもよいし、図5(b)に示したように、垂直走査手段4のみの走査速度を制御するようにしてもよい。   As described above, when changing the scanning density ρ of the laser light L applied to the moving object based on the moving speed ν of the moving object, as shown in FIG. Both the scanning speeds of the vertical scanning means 4 may be controlled, or the scanning speed of only the horizontal scanning means 3 may be controlled as shown in FIG. As shown in (b), the scanning speed of only the vertical scanning means 4 may be controlled.

続いて、高速の移動物体(自動車C)に追従させて走査密度ρを変更する場合について説明する。図4(b)に示した第一フレームF1の次に、図6(a)に示した第二フレームF2、その次に図6(b)に示した第三フレームF3が得られたものとする。自動車Cは、第一フレームF1→第二フレームF2→第三フレームF3と進むにつれて、その位置が徐々にずれていく。例えば、レーザレーダ11のフレームレートが20フレーム/秒である場合、1フレームの計測に要する時間は、0.05秒である。自動車Cの移動速度νが時速60kmであるとすれば、0.05秒の間に自動車Cは約0.83m移動することとなる。この自動車Cの移動に合わせて未来フレームを予測して走査パターンを決定し、走査密度ρの高い領域(周辺領域Ca)を自動車Cに追従させる。   Next, a case where the scanning density ρ is changed by following a high-speed moving object (automobile C) will be described. Next to the first frame F1 shown in FIG. 4 (b), the second frame F2 shown in FIG. 6 (a) and then the third frame F3 shown in FIG. 6 (b) are obtained. To do. The position of the automobile C is gradually shifted as it proceeds from the first frame F1 to the second frame F2 to the third frame F3. For example, when the frame rate of the laser radar 11 is 20 frames / second, the time required to measure one frame is 0.05 seconds. If the moving speed ν of the car C is 60 km / h, the car C moves about 0.83 m in 0.05 seconds. A future frame is predicted in accordance with the movement of the automobile C, a scanning pattern is determined, and an area (peripheral area Ca) having a high scanning density ρ follows the automobile C.

具体的には、第二フレームF2において、周辺領域Caは垂直方向Vの9行目〜11行目及び水平方向Hの31行目〜43行目の範囲に設定され、第三フレームF3において、周辺領域Caは垂直方向Vの11行目〜17行目及び水平方向Hの27行目〜39行目の範囲に設定されている。なお、図6(a)及び(b)では、説明の便宜上、高速の移動物体ではない歩行者A及び自転車Bの図を省略している。   Specifically, in the second frame F2, the peripheral area Ca is set in the range of the 9th to 11th rows in the vertical direction V and the 31st to 43rd rows in the horizontal direction H, and in the third frame F3, The peripheral area Ca is set in the range of the 11th to 17th lines in the vertical direction V and the 27th to 39th lines in the horizontal direction H. 6 (a) and 6 (b), illustration of the pedestrian A and the bicycle B that are not high-speed moving objects is omitted for convenience of explanation.

次に、移動物体の分布に応じて領域ごとに走査密度ρを変更する場合について説明する。まず、図7(a)に示したように、監視範囲S内において、高速の移動物体が存在し易い場所や意識的に高速の移動物体を検出したい場所等について高速領域Saを設定する。ここでは、交差点の中央部付近に高速領域Saを設定している。そして、図7(b)に示したように、毎フレームについて、高速領域Saに含まれる領域の走査密度ρが高くなるように、水平走査手段3及び垂直走査手段4の走査速度を制御する。例えば、図示した高速領域Saでは、92点の分解能(計測点数)を得ることができるが、通常の走査処理では、28点の分解能(計測点数)しか得ることができない。   Next, a case where the scanning density ρ is changed for each region according to the distribution of moving objects will be described. First, as shown in FIG. 7A, in the monitoring range S, a high-speed area Sa is set for a place where a high-speed moving object is likely to exist or a place where a high-speed moving object is consciously detected. Here, a high speed region Sa is set near the center of the intersection. Then, as shown in FIG. 7B, the scanning speeds of the horizontal scanning unit 3 and the vertical scanning unit 4 are controlled so that the scanning density ρ of the region included in the high-speed region Sa is increased for each frame. For example, in the illustrated high-speed region Sa, a resolution of 92 points (measurement points) can be obtained, but in a normal scanning process, only a resolution of 28 points (measurement points) can be obtained.

このように、走査密度ρは領域ごとに変更することにより、効率的な計測を行うことができる。例えば、建物Dや樹木等の表面のように、移動物体が存在しない領域(すなわち、移動速度が0の場合)では、さらに走査密度ρが低くなるように、水平走査手段3及び垂直走査手段4の走査速度を制御するようにしてもよい。   Thus, efficient measurement can be performed by changing the scanning density ρ for each region. For example, in a region where there is no moving object such as the surface of a building D or a tree (that is, when the moving speed is 0), the horizontal scanning unit 3 and the vertical scanning unit 4 so that the scanning density ρ is further reduced. The scanning speed may be controlled.

また、例えば、時間帯によって監視範囲S内の交通状態が大きく変動する場合には、予め複数の高速領域Saを設定しておき、監視範囲Sを走査する時間帯に応じて高速領域Saを変更するようにしてもよい。高速領域Saは、フレーム上の座標を指定して設定するようにしてもよいし、監視範囲S内の高速領域Saの角部に対応する位置に反射板を設置して設定するようにしてもよい。   In addition, for example, when the traffic state in the monitoring range S greatly varies depending on the time zone, a plurality of high speed regions Sa are set in advance, and the high speed region Sa is changed according to the time zone in which the monitoring range S is scanned. You may make it do. The high-speed area Sa may be set by specifying coordinates on the frame, or may be set by setting a reflector at a position corresponding to the corner of the high-speed area Sa in the monitoring range S. Good.

続いて、本発明の第二実施形態に係る移動物体検出装置について、図8〜図10を参照しつつ説明する。ここで、図8は、本発明の第二実施形態に係る移動物体検出装置におけるレーザレーダのブロック図である。図9は、第二実施形態に係る移動物体検出装置の作用を示す図であり、(a)は第二走査パターンによる計測結果(第二フレーム)、(b)は第三走査パターンによる計測結果(第三フレーム)、を示している。図10は、第二実施形態に係る移動物体検出装置の作用を示す図であり、(a)は第四走査パターンによる計測結果(第四フレーム)、(b)は合成フレーム、を示している。なお、第一実施形態と同じ構成部品については、同じ符号を付し重複した説明を省略する。   Next, a moving object detection device according to a second embodiment of the present invention will be described with reference to FIGS. Here, FIG. 8 is a block diagram of a laser radar in the moving object detection apparatus according to the second embodiment of the present invention. FIG. 9 is a diagram illustrating the operation of the moving object detection device according to the second embodiment, in which (a) is a measurement result (second frame) based on the second scanning pattern, and (b) is a measurement result based on the third scanning pattern. (Third frame). FIG. 10 is a diagram illustrating the operation of the moving object detection device according to the second embodiment, where (a) shows the measurement result (fourth frame) by the fourth scanning pattern, and (b) shows the composite frame. . In addition, about the same component as 1st embodiment, the same code | symbol is attached | subjected and the overlapping description is abbreviate | omitted.

図8に示したように、第二実施形態に係る移動物体検出装置は、制御部7が、レーザ光Lの投光タイミングを制御する投光タイミング制御部76と、複数の投光タイミングの異なるフレームを合成して合成フレームを生成するフレーム合成処理部78と、合成フレームから移動物体を検出する認識処理部77と、を有する。   As shown in FIG. 8, in the moving object detection device according to the second embodiment, the control unit 7 differs from the light projection timing control unit 76 that controls the light projection timing of the laser light L, and a plurality of light projection timings are different. It has a frame synthesis processing unit 78 that synthesizes frames to generate a synthesized frame, and a recognition processing unit 77 that detects a moving object from the synthesized frame.

投光タイミング制御部76は、例えば、走査パターン制御部73により設定された走査パターンに応じて、監視範囲Sに照射するレーザ光Lの全部又は一部の領域における投光タイミングを均等にずらすように制御する。監視範囲Sに照射するレーザ光Lの全部の領域における投光タイミングをずらした場合、フレームごとにレーザ光Lの照射点が異なることとなる。監視範囲Sに照射するレーザ光Lの一部の領域における投光タイミングをずらした場合、フレームごとにレーザ光Lの照射点が同じ部分と異なる部分とが混在することとなる。このようにレーザ光Lの走査パターンは、監視範囲Sの全体の照射点をずらすようにしてもよいし、監視範囲Sの一部の照射点をずらすようにしてもよい。また、投光タイミングのずれは、例えば、2〜10フレーム程度で一周期となるように周期性を持たせるようにしてもよい。   For example, the light projection timing control unit 76 equally shifts the light projection timings in all or a part of the laser light L irradiated to the monitoring range S according to the scanning pattern set by the scanning pattern control unit 73. To control. When the light projection timing is shifted in the entire region of the laser light L irradiated to the monitoring range S, the irradiation point of the laser light L is different for each frame. When the light projection timing in a partial region of the laser beam L irradiated to the monitoring range S is shifted, the same point and the different portion of the irradiation point of the laser beam L are mixed for each frame. As described above, the scanning pattern of the laser light L may shift the entire irradiation point of the monitoring range S or may shift a part of the irradiation points of the monitoring range S. Moreover, you may make it give periodicity so that the shift | offset | difference of a light projection timing may be 1 period in about 2-10 frames, for example.

フレーム合成処理部78は、監視範囲Sの一面の計測結果であるフレームを処理する部分である。距離演算部6からフレーム合成処理部78に発信される距離情報d5には、計測点(物体に対する照射点)の距離に加え、角度情報d2,d3を元に算出された位置情報も含まれており、結果として、距離情報d5により計測点(物体に対する照射点)の三次元座標をフレームごとに取得することができる。また、フレーム合成処理部78は、計測点の三次元座標をフレームごとに記憶部71に記憶させる。このとき、記憶するフレームが何番目のフレームであるか把握できるようにデータベース化して記憶部71に記憶させる。   The frame composition processing unit 78 is a part that processes a frame that is a measurement result of one surface of the monitoring range S. The distance information d5 transmitted from the distance calculation unit 6 to the frame composition processing unit 78 includes position information calculated based on the angle information d2 and d3 in addition to the distance of the measurement point (irradiation point on the object). As a result, the three-dimensional coordinates of the measurement point (irradiation point on the object) can be acquired for each frame from the distance information d5. The frame composition processing unit 78 stores the three-dimensional coordinates of the measurement points in the storage unit 71 for each frame. At this time, the data is stored in the storage unit 71 as a database so that the number of frames to be stored can be grasped.

フレーム合成処理部78は、例えば、投光タイミングのずれが、4フレームで一周期を形成する場合には、(4n+1)番目〜(4n+4)番目(nは0から始まる自然数)の4フレームを1フレームに纏めた合成フレームを生成する。このとき、各フレームの投光タイミングがずれていることから、監視範囲Sにおける照射点の位置(座標)が全部又は一部において異なっており、合成フレームを生成することにより、1フレームに含まれる照射点の個数を増加させることができ、見かけ上の分解能を向上させることができる。   For example, when the projection timing shift forms one cycle in four frames, the frame composition processing unit 78 sets 1 frame to 4 frames from (4n + 1) th to (4n + 4) th (n is a natural number starting from 0). A composite frame combined into frames is generated. At this time, since the light projection timing of each frame is deviated, the position (coordinates) of the irradiation point in the monitoring range S is different in whole or in part, and is included in one frame by generating a composite frame. The number of irradiation points can be increased, and the apparent resolution can be improved.

ここで、例えば、レーザレーダ11のフレームレートが20フレーム/秒とした場合、1フレームの計測に要する時間は、0.05秒である。したがって、投光タイミングのずれが4フレームで一周期を形成する場合には、1番目のフレームと4番目のフレームとで0.2秒の時間差を生じることとなる。これは、計測された物体が、静止物体や移動速度の遅い物体の場合には大きな問題とはならないが、自動車のような高速の移動物体に対しては、実際の大きさよりも大きく合成フレームに描写される場合がある。   Here, for example, when the frame rate of the laser radar 11 is 20 frames / second, the time required to measure one frame is 0.05 seconds. Therefore, when the projection timing shift forms one cycle with four frames, a time difference of 0.2 seconds is generated between the first frame and the fourth frame. This is not a big problem when the measured object is a stationary object or an object with a slow moving speed, but for a fast moving object such as an automobile, it is larger than the actual size and becomes a composite frame. May be depicted.

そこで、フレーム合成処理部78は、合成されるフレームのうち最も遅い計測時間(4フレームで一周期を形成する場合には(4n+4)番目のフレームの計測時間)に合わせて各フレームにおける移動物体を検出した計測点を予測して計測点予測フレームを生成してから合成フレームを生成するようにしてもよい。すなわち、1番目のフレームにおいて計測された移動物体の位置を、移動物体の速度ベクトルから4番目のフレームの計測時間には1番目のフレームのどの計測点に移動しているかを予測する。2番目及び3番目のフレームについても同様に計測点の移動先を予測する。そして、予測した後の計測点予測フレームを使用して合成フレームを生成する。かかる処理により、合成するフレーム間のタイムラグによる影響を除去することができる。なお、かかる処理は、未来フレーム予測処理部72で行う。   Therefore, the frame composition processing unit 78 selects the moving object in each frame in accordance with the latest measurement time among the frames to be combined (the measurement time of the (4n + 4) th frame when one cycle is formed with four frames). The synthesized measurement frame may be generated after the detected measurement point is predicted and the measurement point prediction frame is generated. That is, the position of the moving object measured in the first frame is predicted to which measurement point of the first frame is moved from the velocity vector of the moving object in the measurement time of the fourth frame. Similarly, the movement destination of the measurement point is predicted for the second and third frames. Then, a combined frame is generated using the predicted measurement point prediction frame. By such processing, it is possible to remove the influence due to the time lag between frames to be combined. Such processing is performed by the future frame prediction processing unit 72.

また、密集した計測点の群を一つの物体として把握する場合には、分散した計測点を含まないように密集度(例えば、隣接する計測点の距離)を設定するようにすればよい。かかる処理によれば、簡単な処理で合成するフレーム間のタイムラグによる影響を除去することができ、装置の処理負担を軽減することができる。なお、かかる処理は、認識処理部77で行う。   Further, when grasping a group of dense measurement points as one object, the degree of density (for example, the distance between adjacent measurement points) may be set so as not to include dispersed measurement points. According to such processing, it is possible to remove the influence due to the time lag between frames to be combined by simple processing, and to reduce the processing load on the apparatus. This processing is performed by the recognition processing unit 77.

いま、図4(b)に示した第一フレームF1→図9(a)に示した第二フレームF2→図9(b)に示した第三フレームF3→図10(a)に示した第四フレームF4の順番に複数のフレームを取得した場合について考える。   Now, the first frame F1 shown in FIG. 4B → the second frame F2 shown in FIG. 9A → the third frame F3 shown in FIG. 9B → the first frame shown in FIG. 10A. Consider a case where a plurality of frames are acquired in the order of four frames F4.

図9(a)に示した第二フレームF2は、第一フレームF1における第一走査パターンを、垂直方向Vに1行分、水平方向Hに2列分、レーザ光Lの投光タイミングをずらした第二走査パターンを有する。すなわち、第二フレームF2における投光タイミングは、投光タイミング制御部76により、水平方向H及び垂直方向Vにずらすように制御されている。したがって、例えば、図示したように、(1,1)の分割領域に照射されたレーザ光Lは(2,3)の分割領域に照射され、(1,5)の分割領域に照射されたレーザ光Lは(2,7)の分割領域に照射され、(5,1)の分割領域に照射されたレーザ光Lは(6,3)の分割領域に照射されることとなる。かかる第二走査パターンは、第一走査パターンの全体(監視範囲Sの全面)について、均等にレーザ光Lの投光タイミングをずらしたものである。なお、高速の移動物体(自動車C)の周辺領域Caにおいても、高い走査密度を維持したまま投光タイミングがずらされる。   In the second frame F2 shown in FIG. 9A, the projection timing of the laser beam L is shifted by one line in the vertical direction V and two columns in the horizontal direction H in the first scanning pattern in the first frame F1. A second scanning pattern. That is, the light projection timing in the second frame F <b> 2 is controlled by the light projection timing control unit 76 so as to be shifted in the horizontal direction H and the vertical direction V. Therefore, for example, as shown in the drawing, the laser light L irradiated to the (1, 1) divided region is irradiated to the (2, 3) divided region, and the laser irradiated to the (1, 5) divided region. The light L is irradiated to the (2, 7) divided region, and the laser light L irradiated to the (5, 1) divided region is irradiated to the (6, 3) divided region. The second scanning pattern is obtained by uniformly shifting the projection timing of the laser light L for the entire first scanning pattern (entire surface of the monitoring range S). Even in the peripheral area Ca of the high-speed moving object (car C), the light projection timing is shifted while maintaining a high scanning density.

この第二フレームF2では、歩行者Aの計測点は(12,15)及び(14,15)の分割領域、自転車Bの計測点は(22,23)の分割領域、自動車Cの計測点は(8,39)、(8,41)、(8,43)、(10,37)、(10,39)、(10,41)、(10,43)、(10,45)、(12,33)、(12,35)、(12,37)、(12,39)、(12,41)、(12,43)、(12,45)、(14,35)、(14,37)、(14,39)及び(14,41)の分割領域に描写されている。なお、各移動物体は、第一フレームF1と第二フレームF2の時間差分(0.05秒)だけ各速度ベクトルに沿って移動した状態になっている。   In this second frame F2, the measurement points of pedestrian A are the divided areas of (12, 15) and (14, 15), the measurement points of bicycle B are the divided areas of (22, 23), and the measurement points of car C are (8, 39), (8, 41), (8, 43), (10, 37), (10, 39), (10, 41), (10, 43), (10, 45), (12 , 33), (12, 35), (12, 37), (12, 39), (12, 41), (12, 43), (12, 45), (14, 35), (14, 37) ), (14, 39) and (14, 41). Each moving object is in a state of moving along each velocity vector by a time difference (0.05 seconds) between the first frame F1 and the second frame F2.

図9(b)に示した第三フレームF3は、第二フレームF2における第二走査パターンを、垂直方向Vに1行分、水平方向Hに2列分、レーザ光Lの投光タイミングをずらした第三走査パターンを有する。すなわち、第三フレームF3における投光タイミングは、投光タイミング制御部76により、水平方向H及び垂直方向Vにずらすように制御されている。したがって、例えば、図示したように、(2,3)の分割領域に照射されたレーザ光Lは(3,5)の分割領域に照射され、(2,7)の分割領域に照射されたレーザ光Lは(3,9)の分割領域に照射され、(6,3)の分割領域に照射されたレーザ光Lは(7,5)の分割領域に照射されることとなる。かかる第三走査パターンは、第二走査パターンの全体(監視範囲Sの全面)について、均等にレーザ光Lの投光タイミングをずらしたものである。なお、高速の移動物体(自動車C)の周辺領域Caにおいても、高い走査密度を維持したまま投光タイミングがずらされる。   In the third frame F3 shown in FIG. 9B, the projection timing of the laser beam L is shifted by the second scanning pattern in the second frame F2 by one row in the vertical direction V and two columns in the horizontal direction H. A third scanning pattern. That is, the light projection timing in the third frame F3 is controlled by the light projection timing control unit 76 so as to be shifted in the horizontal direction H and the vertical direction V. Therefore, for example, as shown in the drawing, the laser light L irradiated to the (2, 3) divided region is irradiated to the (3, 5) divided region, and the laser irradiated to the (2, 7) divided region. The light L is irradiated to the (3, 9) divided region, and the laser light L irradiated to the (6, 3) divided region is irradiated to the (7, 5) divided region. The third scanning pattern is obtained by uniformly shifting the projection timing of the laser light L for the entire second scanning pattern (entire surface of the monitoring range S). Even in the peripheral area Ca of the high-speed moving object (car C), the light projection timing is shifted while maintaining a high scanning density.

この第三フレームF3では、歩行者Aの計測点は(13,13)、(13,17)及び(15,13)の分割領域、自転車Bの計測点は(19,21)及び(23,21)の分割領域、自動車Cの計測点は(9,37)、(9,39)、(9,41)、(11,35)、(11,37)、(11,39)、(11,41)、(11,43)、(13,31)、(13,33)、(13,35)、(13,37)、(13,39)、(13,41)、(13,43)、(15,33)、(15,35)、(13,37)及び(13,39)の分割領域に描写されている。なお、各移動物体は、第二フレームF2と第三フレームF3の時間差分(0.05秒)だけ各速度ベクトルに沿って移動した状態になっている。   In the third frame F3, the pedestrian A's measurement points are (13, 13), (13, 17) and (15, 13) divided areas, and the bicycle B's measurement points are (19, 21) and (23, 21), the measurement points of car C are (9, 37), (9, 39), (9, 41), (11, 35), (11, 37), (11, 39), (11 , 41), (11, 43), (13, 31), (13, 33), (13, 35), (13, 37), (13, 39), (13, 41), (13, 43) ), (15, 33), (15, 35), (13, 37) and (13, 39). Each moving object is in a state of moving along each velocity vector by a time difference (0.05 seconds) between the second frame F2 and the third frame F3.

図10(a)に示した第四フレームF4は、第三フレームF3における第三走査パターンを、垂直方向Vに1行分、水平方向Hに2列分、レーザ光Lの投光タイミングをずらした第四走査パターンを有する。すなわち、第四フレームF4における投光タイミングは、投光タイミング制御部76により、水平方向H及び垂直方向Vにずらすように制御されている。したがって、例えば、図示したように、(3,5)の分割領域に照射されたレーザ光Lは(4,7)の分割領域に照射され、(3,9)の分割領域に照射されたレーザ光Lは(4,11)の分割領域に照射され、(7,5)の分割領域に照射されたレーザ光Lは(8,7)の分割領域に照射されることとなる。かかる第四走査パターンは、第三走査パターンの全体(監視範囲Sの全面)について、均等にレーザ光Lの投光タイミングをずらしたものである。なお、高速の移動物体(自動車C)の周辺領域Caにおいても、高い走査密度を維持したまま投光タイミングがずらされる。   In the fourth frame F4 shown in FIG. 10A, the projection timing of the laser beam L is shifted by one row in the vertical direction V and two columns in the horizontal direction H in the third scanning pattern in the third frame F3. A fourth scan pattern. That is, the light projection timing in the fourth frame F4 is controlled to be shifted in the horizontal direction H and the vertical direction V by the light projection timing control unit 76. Therefore, for example, as shown in the drawing, the laser light L irradiated to the (3, 5) divided region is irradiated to the (4, 7) divided region, and the laser irradiated to the (3, 9) divided region. The light L is applied to the (4, 11) divided region, and the laser light L applied to the (7, 5) divided region is applied to the (8, 7) divided region. The fourth scanning pattern is obtained by uniformly shifting the projection timing of the laser light L for the entire third scanning pattern (entire surface of the monitoring range S). Even in the peripheral area Ca of the high-speed moving object (car C), the light projection timing is shifted while maintaining a high scanning density.

この第四フレームF4では、歩行者Aの計測点は(12,15)及び(14,15)の分割領域、自転車Bの計測点は(20,19)、(20,23)及び(24,19)の分割領域、自動車Cの計測点は(12,31)、(12,33)、(12,35)、(12,37)、(12,39)、(14,29)、(14,31)、(14,33)、(14,35)、(14,37)、(14,39)、(16,29)、(16,31)、(16,33)及び(16,35)の分割領域に描写されている。なお、各移動物体は、第三フレームF3と第四フレームF4の時間差分(0.05秒)だけ各速度ベクトルに沿って移動した状態になっている。   In the fourth frame F4, the measurement points of pedestrian A are the divided areas of (12, 15) and (14, 15), and the measurement points of bicycle B are (20, 19), (20, 23) and (24, 19), the measurement points of car C are (12, 31), (12, 33), (12, 35), (12, 37), (12, 39), (14, 29), (14 , 31), (14, 33), (14, 35), (14, 37), (14, 39), (16, 29), (16, 31), (16, 33) and (16, 35) ). Each moving object is in a state of moving along each velocity vector by a time difference (0.05 seconds) between the third frame F3 and the fourth frame F4.

図10(b)は、上述した第一フレームF1〜第四フレームF4を合成した合成フレームFcを示している。第一フレームF1〜第四フレームF4は、計測終了後、記憶部71に記憶されており、合成処理時には、フレーム合成処理部78が記憶部71から所定のデータ(フレーム)をピックアップして合成フレームFcを生成する。合成フレームFcは、第一フレームF1〜第四フレームF4においてレーザ光Lが照射された全ての分割領域を含んでおり、第一フレームF1は136点の分解能を有し、第二フレームF2〜第四フレームF4は124点の分解能を有していることから、合成フレームFcは508点の分解能を有しているものといえる。したがって、本第二実施形態では、一計測点当たりの計測時間を短縮したり、フレームレートを下げたりする必要がなく、投光タイミングをずらしてフレームの合成処理を行うだけで、容易に分解能を向上させることができる。   FIG. 10B shows a combined frame Fc obtained by combining the first frame F1 to the fourth frame F4. The first frame F1 to the fourth frame F4 are stored in the storage unit 71 after the measurement is completed. During the synthesis process, the frame synthesis processing unit 78 picks up predetermined data (frames) from the storage unit 71 and combines frames. Generate Fc. The composite frame Fc includes all the divided regions irradiated with the laser light L in the first frame F1 to the fourth frame F4. The first frame F1 has a resolution of 136 points, and the second frame F2 to the second frame F2. Since the four frames F4 have a resolution of 124 points, it can be said that the composite frame Fc has a resolution of 508 points. Therefore, in the second embodiment, there is no need to shorten the measurement time per measurement point or lower the frame rate, and the resolution can be easily improved by simply shifting the light projection timing and performing the frame synthesis process. Can be improved.

また、合成フレームFcでは、高速の移動物体(自動車C)の周辺領域Caの走査密度ρをより高くすることができるとともに、走査密度ρが低い領域の走査密度ρを高くすることができる。その結果、各フレームにおいて、高速の移動物体を基準にして低速(静止している場合を含む)の移動物体の走査密度ρを低くした場合であっても、合成フレームFcを生成することによって、走査密度ρが低い領域の走査密度ρを高くすることができ、急な飛び出し等の突発的な状況についても移動物体を効果的に検出することができる。   Further, in the composite frame Fc, the scanning density ρ in the peripheral area Ca of the high-speed moving object (automobile C) can be increased, and the scanning density ρ in the area where the scanning density ρ is low can be increased. As a result, in each frame, even when the scanning density ρ of a low-speed (including stationary) moving object is reduced with reference to a high-speed moving object, by generating a composite frame Fc, The scanning density ρ in the region where the scanning density ρ is low can be increased, and a moving object can be detected effectively even in a sudden situation such as a sudden jump.

図10(b)において、走査密度ρの高い周辺領域Caでは計測点が隣接して密集している。一方、第一フレームF1〜第四フレームF4の走査密度ρの高い領域を合成した高密度領域Ca′(二点鎖線で囲った部分)では、他の監視範囲Sの領域として照射点が密集している。この高密度領域Ca′内では、第一フレームF1〜第四フレームF4の時間差によって計測点が分散することとなる。この計測点を全て移動物体(自動車C)と認識した場合には、実際の大きさよりも移動物体(自動車C)を大きく認識してしまうこととなる。そこで、上述したように、第一フレームF1〜第三フレームF3で計測された計測点の第四フレームにおける移動先を予測して計測点を描写するようにしてもよいし、隣接する計測点の距離によって分散して計測点を認識対象から除外するようにしてもよい。これらの処理を行うことによって、て移動物体(自動車C)は周辺領域Caに含まれるものと認識され、実際の大きさと略一致する大きさで認識することができる。   In FIG. 10B, the measurement points are densely adjacent to each other in the peripheral area Ca where the scanning density ρ is high. On the other hand, in the high-density area Ca ′ (part surrounded by a two-dot chain line) in which the high scanning density ρ areas of the first frame F1 to the fourth frame F4 are combined, the irradiation points are densely gathered as other monitoring area S areas. ing. In the high-density area Ca ′, the measurement points are dispersed due to the time difference between the first frame F1 and the fourth frame F4. When all the measurement points are recognized as a moving object (car C), the moving object (car C) is recognized larger than the actual size. Therefore, as described above, the measurement points measured in the first frame F1 to the third frame F3 may be predicted to represent the movement destination in the fourth frame, or the measurement points adjacent to each other may be drawn. The measurement points may be excluded from the recognition targets by being dispersed according to the distance. By performing these processes, the moving object (automobile C) is recognized as being included in the peripheral area Ca, and can be recognized with a size that substantially matches the actual size.

なお、レーザ光Lの投光タイミングのずらし方は上述したものに限定されるものではなく、例えば、略Z字状にずらしてもよいし、略N字状にずらしてもよいし、水平方向Hのみにずらしてもよいし、垂直方向Vのみにずらしてもよいし、ジグザグ(鋸刃状)にずらすようにしてもよい。また、監視範囲Sの一部の領域(例えば、図7(a)に示した高速領域Sa)においてのみ投光タイミングをずらすようにしてもよい。   The method of shifting the projecting timing of the laser light L is not limited to the above-described one. For example, the laser light L may be shifted in a substantially Z shape, may be shifted in a substantially N shape, or may be in the horizontal direction. You may shift only to H, you may shift only to the vertical direction V, and you may make it shift to a zigzag (saw blade shape). Further, the light projection timing may be shifted only in a part of the monitoring range S (for example, the high-speed area Sa shown in FIG. 7A).

本発明は上述した実施形態に限定されず、本発明の移動物体検出装置1は交差点以外の場所(例えば、踏切、一般道路、高速道路等)にも使用することができる等、本発明の趣旨を逸脱しない範囲で種々変更が可能であることは勿論である。   The present invention is not limited to the above-described embodiments, and the moving object detection device 1 of the present invention can be used in places other than intersections (for example, railroad crossings, general roads, highways, etc.), etc. It goes without saying that various modifications can be made without departing from the scope of the invention.

1 移動物体検出装置
2 投光部
3 水平走査手段
4 垂直走査手段
5 受光部
6 距離演算部
7 制御部
11 レーザレーダ
71 記憶部
72 未来フレーム予測処理部
73 走査パターン制御部
74 水平走査制御部
75 垂直走査制御部
76 投光タイミング制御部
77 認識処理部
78 フレーム合成処理部
DESCRIPTION OF SYMBOLS 1 Moving object detection apparatus 2 Light projection part 3 Horizontal scanning means 4 Vertical scanning means 5 Light receiving part 6 Distance calculating part 7 Control part 11 Laser radar 71 Memory | storage part 72 Future frame prediction process part 73 Scanning pattern control part 74 Horizontal scanning control part 75 Vertical scanning control unit 76 Light projection timing control unit 77 Recognition processing unit 78 Frame composition processing unit

Claims (5)

監視範囲の水平方向及び垂直方向にレーザ光を走査しながら照射し、該レーザ光の反射光を受光して前記監視範囲内の移動物体を検出する移動物体検出装置であって、
前記レーザ光を投光する投光部と、前記レーザ光を前記水平方向に走査させる水平走査手段と、前記レーザ光を前記垂直方向に走査させる垂直走査手段と、前記レーザ光の反射光を受光して受光情報を発信する受光部と、前記受光情報から前記移動物体の距離を算出する距離演算部と、前記投光部、前記水平走査手段及び前記垂直走査手段の制御を行う制御部と、を有するレーザレーダを備え、
前記制御部は、前記移動物体の移動速度に基づいて、前記水平走査手段、前記垂直走査手段又は前記水平走査手段及び前記垂直走査手段の走査速度を制御して、前記移動物体に照射される前記レーザ光の走査密度を変更する、ことを特徴とする移動物体検出装置。
A moving object detection apparatus that irradiates a laser beam while scanning in a horizontal direction and a vertical direction of a monitoring range, receives a reflected light of the laser beam, and detects a moving object in the monitoring range,
A light projecting section for projecting the laser light; horizontal scanning means for scanning the laser light in the horizontal direction; vertical scanning means for scanning the laser light in the vertical direction; and receiving reflected light of the laser light. A light receiving unit that transmits light reception information, a distance calculation unit that calculates a distance of the moving object from the light reception information, a control unit that controls the light projecting unit, the horizontal scanning unit, and the vertical scanning unit, A laser radar having
The control unit controls the scanning speed of the horizontal scanning unit, the vertical scanning unit, or the horizontal scanning unit and the vertical scanning unit based on the moving speed of the moving object, and irradiates the moving object. A moving object detection apparatus characterized by changing a scanning density of laser light.
前記制御部は、前記移動速度が遅い場合に前記走査密度を低くして前記移動速度が速い場合に前記走査密度を高くする、又は、前記移動速度が閾値より小さい場合に前記走査密度を低くして前記移動速度が前記閾値より大きい場合に前記走査密度を高くする、ことを特徴とする請求項1に記載の移動物体検出装置。   The control unit lowers the scanning density when the moving speed is low and increases the scanning density when the moving speed is high, or decreases the scanning density when the moving speed is smaller than a threshold value. The moving object detection apparatus according to claim 1, wherein the scanning density is increased when the moving speed is greater than the threshold value. 前記制御部は、前記移動物体に追従して前記走査密度を変更する、又は、前記移動物体の分布に応じて領域ごとに前記走査密度を変更する、ことを特徴とする請求項1に記載の移動物体検出装置。   The said control part changes the said scanning density according to the said moving object, or changes the said scanning density for every area | region according to the distribution of the said moving object. Moving object detection device. 前記制御部は、前記監視範囲の一面を計測した結果をフレームとして記憶する記憶部と、前記移動物体の移動先を予測した未来フレームを算出する未来フレーム予測処理部と、前記未来フレームに基づいて前記レーザ光の走査パターンを設定する走査パターン制御部と、前記走査パターンに基づいて前記水平走査手段の走査速度を制御する水平走査制御部と、前記走査パターンに基づいて前記垂直走査手段の走査速度を制御する垂直走査制御部と、を有し、前記記憶部に記憶された前後のフレームから前記移動物体の移動方向及び移動速度を算出し、前記未来フレーム予測処理部及び前記走査パターン制御部により設定された前記走査パターンに基づいて、前記水平走査制御部又は前記垂直走査制御部により前記レーザ光の走査速度を制御する、ことを特徴とする請求項1に記載の移動物体検出装置。   The control unit, based on the future frame, a storage unit that stores a result of measuring one surface of the monitoring range as a frame, a future frame prediction processing unit that calculates a future frame in which the moving destination of the moving object is predicted, A scanning pattern control section for setting a scanning pattern of the laser beam; a horizontal scanning control section for controlling a scanning speed of the horizontal scanning means based on the scanning pattern; and a scanning speed of the vertical scanning means based on the scanning pattern. A vertical scanning control unit for controlling the moving object, calculating a moving direction and a moving speed of the moving object from the previous and subsequent frames stored in the storage unit, and the future frame prediction processing unit and the scanning pattern control unit Based on the set scanning pattern, the scanning speed of the laser beam is controlled by the horizontal scanning control unit or the vertical scanning control unit. , The moving object detection apparatus according to claim 1, characterized in that. 前記制御部は、前記レーザ光の投光タイミングを制御する投光タイミング制御部と、複数の前記投光タイミングの異なる前記フレームを合成して合成フレームを生成するフレーム合成処理部と、該合成フレームから前記移動物体を検出する認識処理部と、を有する、ことを特徴とする請求項4に記載の移動物体検出装置。   The control unit includes: a projection timing control unit that controls a projection timing of the laser light; a frame synthesis processing unit that generates a synthesized frame by synthesizing a plurality of the frames having different projection timings; and the synthesized frame The moving object detection device according to claim 4, further comprising: a recognition processing unit that detects the moving object from
JP2012016676A 2012-01-30 2012-01-30 Moving object detecting apparatus Pending JP2013156138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012016676A JP2013156138A (en) 2012-01-30 2012-01-30 Moving object detecting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012016676A JP2013156138A (en) 2012-01-30 2012-01-30 Moving object detecting apparatus

Publications (1)

Publication Number Publication Date
JP2013156138A true JP2013156138A (en) 2013-08-15

Family

ID=49051467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012016676A Pending JP2013156138A (en) 2012-01-30 2012-01-30 Moving object detecting apparatus

Country Status (1)

Country Link
JP (1) JP2013156138A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156139A (en) * 2012-01-30 2013-08-15 Ihi Corp Moving object detecting apparatus and moving object detecting method
CN105046960A (en) * 2015-07-10 2015-11-11 潘进 Method and apparatus for analyzing road congestion state and detecting illegal parking
JP2017505907A (en) * 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
JP2017530343A (en) * 2014-08-15 2017-10-12 エイアイ インコーポレイテッドAEYE, Inc. Method and system for LADAR transmission
KR101861433B1 (en) * 2016-06-30 2018-05-25 광주과학기술원 Optical System for Transmitting and Receiving Laser
CN108700665A (en) * 2017-06-01 2018-10-23 深圳市大疆创新科技有限公司 A kind of detection method, device and detecting devices based on laser radar
JP2018179588A (en) * 2017-04-05 2018-11-15 株式会社トプコン Laser scanner
JP2018205120A (en) * 2017-06-05 2018-12-27 株式会社Ihi Object detection device, and object detection method
WO2019031372A1 (en) * 2017-08-09 2019-02-14 パイオニア株式会社 Sensor control device
JP2020509389A (en) * 2017-03-08 2020-03-26 ブリックフェルト ゲゼルシャフト ミット ベシュレンクテル ハフツング LIDAR system with flexible scan parameters
JP2020091157A (en) * 2018-12-04 2020-06-11 株式会社Ihi Optical distance measuring device and transfer system
JP2020522717A (en) * 2017-06-07 2020-07-30 上海禾賽光電科技有限公司Hesai Photonics Technology Co.,Ltd Multiline radar
WO2021014534A1 (en) * 2019-07-22 2021-01-28 三菱電機株式会社 Obstacle detection device
CN112462086A (en) * 2020-10-23 2021-03-09 宁波傲视智绘光电科技有限公司 Speed measuring method and device and readable storage medium
WO2021070570A1 (en) * 2019-10-11 2021-04-15 株式会社デンソー Optical distance-measuring device and control method for optical distance-measuring device
CN113281781A (en) * 2020-01-31 2021-08-20 株式会社电装 Optical detector
JP2021532379A (en) * 2018-07-19 2021-11-25 ルミナー,エルエルシー Adjustable pulse characteristics for ground detection in the rider system
WO2022191175A1 (en) * 2021-03-10 2022-09-15 パイオニア株式会社 Sensor device, control device, control method, program, and storage medium

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1172561A (en) * 1997-08-28 1999-03-16 Nissan Motor Co Ltd Alarming device for distance between vehicles
JP2000338245A (en) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Scanning-type distance-measuring device
JP2001050723A (en) * 1999-08-11 2001-02-23 Minolta Co Ltd Distance measuring equipment
JP2002323564A (en) * 2001-04-27 2002-11-08 Mitsubishi Heavy Ind Ltd Detection and monitoring method for floating object and device therefor
JP2005127909A (en) * 2003-10-24 2005-05-19 Fujitsu Ten Ltd Scanning method of radar
JP2005216160A (en) * 2004-01-30 2005-08-11 Secom Co Ltd Image generating apparatus, intruder monitoring apparatus and image generating method
JP2006030147A (en) * 2004-07-22 2006-02-02 Hitachi Ltd Environment recognizing system and moving mechanism
JP2006258604A (en) * 2005-03-17 2006-09-28 Sanyo Electric Co Ltd Detection device
JP2006329971A (en) * 2005-04-27 2006-12-07 Sanyo Electric Co Ltd Detector
JP2006330979A (en) * 2005-05-25 2006-12-07 Nissan Motor Co Ltd Preceding vehicle information acquiring device
JP2008241535A (en) * 2007-03-28 2008-10-09 Ihi Corp Laser monitoring device
JP2008241273A (en) * 2007-03-26 2008-10-09 Ihi Corp Laser radar device and its control method
JP2008292308A (en) * 2007-05-24 2008-12-04 Jtekt Corp Optical radar device
JP2010527024A (en) * 2007-05-16 2010-08-05 エルジー イノテック カンパニー,リミティド Distance measuring apparatus and method
JP2011053137A (en) * 2009-09-03 2011-03-17 Nippon Signal Co Ltd:The Optical range finder
JP2013015338A (en) * 2011-06-30 2013-01-24 Fujitsu Ltd Monitoring device and monitoring method
JP2013156139A (en) * 2012-01-30 2013-08-15 Ihi Corp Moving object detecting apparatus and moving object detecting method

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1172561A (en) * 1997-08-28 1999-03-16 Nissan Motor Co Ltd Alarming device for distance between vehicles
JP2000338245A (en) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Scanning-type distance-measuring device
JP2001050723A (en) * 1999-08-11 2001-02-23 Minolta Co Ltd Distance measuring equipment
JP2002323564A (en) * 2001-04-27 2002-11-08 Mitsubishi Heavy Ind Ltd Detection and monitoring method for floating object and device therefor
JP2005127909A (en) * 2003-10-24 2005-05-19 Fujitsu Ten Ltd Scanning method of radar
JP2005216160A (en) * 2004-01-30 2005-08-11 Secom Co Ltd Image generating apparatus, intruder monitoring apparatus and image generating method
JP2006030147A (en) * 2004-07-22 2006-02-02 Hitachi Ltd Environment recognizing system and moving mechanism
JP2006258604A (en) * 2005-03-17 2006-09-28 Sanyo Electric Co Ltd Detection device
JP2006329971A (en) * 2005-04-27 2006-12-07 Sanyo Electric Co Ltd Detector
JP2006330979A (en) * 2005-05-25 2006-12-07 Nissan Motor Co Ltd Preceding vehicle information acquiring device
JP2008241273A (en) * 2007-03-26 2008-10-09 Ihi Corp Laser radar device and its control method
JP2008241535A (en) * 2007-03-28 2008-10-09 Ihi Corp Laser monitoring device
JP2010527024A (en) * 2007-05-16 2010-08-05 エルジー イノテック カンパニー,リミティド Distance measuring apparatus and method
JP2008292308A (en) * 2007-05-24 2008-12-04 Jtekt Corp Optical radar device
JP2011053137A (en) * 2009-09-03 2011-03-17 Nippon Signal Co Ltd:The Optical range finder
JP2013015338A (en) * 2011-06-30 2013-01-24 Fujitsu Ltd Monitoring device and monitoring method
JP2013156139A (en) * 2012-01-30 2013-08-15 Ihi Corp Moving object detecting apparatus and moving object detecting method

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156139A (en) * 2012-01-30 2013-08-15 Ihi Corp Moving object detecting apparatus and moving object detecting method
JP2017505907A (en) * 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
JP2017530343A (en) * 2014-08-15 2017-10-12 エイアイ インコーポレイテッドAEYE, Inc. Method and system for LADAR transmission
CN105046960A (en) * 2015-07-10 2015-11-11 潘进 Method and apparatus for analyzing road congestion state and detecting illegal parking
CN105046960B (en) * 2015-07-10 2018-03-02 武汉微智创大科技有限公司 A kind of method and device detected to congestion in road state analysis and illegal parking
KR101861433B1 (en) * 2016-06-30 2018-05-25 광주과학기술원 Optical System for Transmitting and Receiving Laser
JP2020509389A (en) * 2017-03-08 2020-03-26 ブリックフェルト ゲゼルシャフト ミット ベシュレンクテル ハフツング LIDAR system with flexible scan parameters
JP7155368B2 (en) 2017-04-05 2022-10-18 株式会社トプコン laser scanner
JP2018179588A (en) * 2017-04-05 2018-11-15 株式会社トプコン Laser scanner
JP2022000645A (en) * 2017-04-05 2022-01-04 株式会社トプコン Laser scanner
CN108700665A (en) * 2017-06-01 2018-10-23 深圳市大疆创新科技有限公司 A kind of detection method, device and detecting devices based on laser radar
JP2018205120A (en) * 2017-06-05 2018-12-27 株式会社Ihi Object detection device, and object detection method
JP2020522717A (en) * 2017-06-07 2020-07-30 上海禾賽光電科技有限公司Hesai Photonics Technology Co.,Ltd Multiline radar
US11543503B2 (en) 2017-06-07 2023-01-03 Hesai Technology Co., Ltd. Multi-line laser radar
JP7159224B2 (en) 2017-06-07 2022-10-24 上海禾賽科技有限公司 multi line radar
JPWO2019031372A1 (en) * 2017-08-09 2020-07-27 パイオニア株式会社 Sensor control device
US11585656B2 (en) 2017-08-09 2023-02-21 Pioneer Corporation Sensor control device
WO2019031372A1 (en) * 2017-08-09 2019-02-14 パイオニア株式会社 Sensor control device
JP2021532379A (en) * 2018-07-19 2021-11-25 ルミナー,エルエルシー Adjustable pulse characteristics for ground detection in the rider system
JP7108789B2 (en) 2018-07-19 2022-07-28 ルミナー,エルエルシー Adjustable pulse characteristics for ground detection in lidar systems
JP2020091157A (en) * 2018-12-04 2020-06-11 株式会社Ihi Optical distance measuring device and transfer system
JPWO2021014534A1 (en) * 2019-07-22 2021-10-21 三菱電機株式会社 Obstacle detector
WO2021014534A1 (en) * 2019-07-22 2021-01-28 三菱電機株式会社 Obstacle detection device
JP2021063672A (en) * 2019-10-11 2021-04-22 株式会社デンソー Optical range finder and control method of optical range finder
WO2021070570A1 (en) * 2019-10-11 2021-04-15 株式会社デンソー Optical distance-measuring device and control method for optical distance-measuring device
JP7259695B2 (en) 2019-10-11 2023-04-18 株式会社デンソー Optical ranging device and control method for optical ranging device
JP2021121790A (en) * 2020-01-31 2021-08-26 株式会社デンソー Photodetector
CN113281781A (en) * 2020-01-31 2021-08-20 株式会社电装 Optical detector
JP7452044B2 (en) 2020-01-31 2024-03-19 株式会社デンソー light detection device
CN112462086A (en) * 2020-10-23 2021-03-09 宁波傲视智绘光电科技有限公司 Speed measuring method and device and readable storage medium
WO2022191175A1 (en) * 2021-03-10 2022-09-15 パイオニア株式会社 Sensor device, control device, control method, program, and storage medium

Similar Documents

Publication Publication Date Title
JP2013156138A (en) Moving object detecting apparatus
JP2013156139A (en) Moving object detecting apparatus and moving object detecting method
JP5541410B2 (en) Laser radar equipment
JP5488518B2 (en) Road edge detection device, driver support device, and road edge detection method
JP6292534B2 (en) Object detection device and sensing device
JP5716902B2 (en) Monitoring method and monitoring apparatus
CN203288083U (en) Laser 3D vehicle scanning device
JP2005222538A (en) Method for recognizing mark on driveway
CN103208186A (en) Method and device for scanning vehicles in three-dimensional mode through laser
US20230213631A1 (en) LIDAR System Design to Mitigate LIDAR Cross-Talk
JP2006209318A (en) Apparatus and method for detecting number of people
JP2011043330A (en) Method and device for obstacle detection
JP5930178B2 (en) Vehicle detection method and vehicle detection device
JP2018072288A (en) Object detection apparatus and object detection method for traveling body
JP2007248146A (en) Radar device
JP2011106829A (en) Method for detecting moving body, and laser apparatus for measuring distance
JP2008096112A (en) Radar system
JP6252722B2 (en) Laser distance measuring method and laser distance measuring apparatus
JP5896139B2 (en) Vehicle detection method and vehicle detection device
CN117413199A (en) Mobile profile for intelligent scanning using galvanometer mirrors inside LIDAR scanners
JP2010249569A (en) Obstacle detection method and laser distance measuring instrument
JP2011122851A (en) Method and device for detecting object
JP4811614B2 (en) Obstacle detection method and apparatus
WO2023074207A1 (en) Control device, control method, and control program
JP2020085522A (en) Monitoring system and processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160316