JP6942966B2 - Object detection device and mobile device - Google Patents
Object detection device and mobile device Download PDFInfo
- Publication number
- JP6942966B2 JP6942966B2 JP2017010080A JP2017010080A JP6942966B2 JP 6942966 B2 JP6942966 B2 JP 6942966B2 JP 2017010080 A JP2017010080 A JP 2017010080A JP 2017010080 A JP2017010080 A JP 2017010080A JP 6942966 B2 JP6942966 B2 JP 6942966B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- region
- signal
- interest
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、物体検出装置及び移動体装置に関する。 The present invention relates to an object detection device and a mobile device.
近年、投光し、物体で反射された光を光検出器で受光して物体の有無、物体までの距離等の物体に関する情報を検出する装置の開発が盛んに行われている。 In recent years, a device that projects light and receives light reflected by an object with a photodetector to detect information about the object such as the presence or absence of the object and the distance to the object has been actively developed.
例えば、特許文献1に開示されている技術では、特定の物体(例えば低反射物体)に関する情報を検出するときに、光検出器の出力信号を検出するための閾値を下げている。
For example, in the technique disclosed in
しかしながら、特許文献1に開示されている装置では、特定の物体に関する情報の検出精度を向上することに関して改善の余地があった。
However, in the apparatus disclosed in
本発明は、光源を含む投光系と、前記投光系から投光され物体で反射された光を受光する光検出器を含む受光系と、前記光検出器の出力信号又は該出力信号に基づく信号が入力される信号検出部を含み検出信号を出力する信号処理系と、前記投光系の投光範囲の少なくとも一部を撮像し第1撮像画像を出力する第1撮像系と、前記投光範囲の少なくとも一部を撮像し第2撮像画像を出力する第2撮像系と、前記投光系の投光範囲内の少なくとも1つの領域を前記検出信号と前記第1撮像画像と前記第2撮像画像とに基づいて注目領域として設定し、前記注目領域に対する前記投光系の投光条件及び前記信号処理系の処理条件の少なくとも一方を、前記注目領域へ投光するときと前記投光範囲における前記注目領域以外の領域に投光するときとで異ならせる制御系と、を備える物体検出装置である。
The present invention includes a light projecting system including a light source, a light receiving system including a light detector that receives light projected from the light projecting system and reflected by an object, and an output signal of the light detector or the output signal. A signal processing system that includes a signal detection unit to which a signal based on the light is input and outputs a detection signal, a first imaging system that captures at least a part of the projection range of the projection system and outputs a first imaging image, and the above. A second imaging system that captures at least a part of the projection range and outputs a second imaging image, and at least one region within the projection range of the projection system includes the detection signal , the first captured image, and the first image. 2 When the light projection condition of the light projection system and the processing condition of the signal processing system with respect to the attention area are projected to the attention area and the light projection is set as the area of interest based on the captured image. a control system for different between when projected in a region other than the region of interest in the region, an object detection apparatus Ru comprising a.
本発明によれば、特定の物体に関する情報の検出精度を向上できる。 According to the present invention, it is possible to improve the detection accuracy of information about a specific object.
以下、本発明の第1実施形態を図面に基づいて説明する。 Hereinafter, the first embodiment of the present invention will be described with reference to the drawings.
[第1実施形態]
先ず、第1実施形態の物体検出装置100の一例としてのライダ20Aの概要について説明する。
[First Embodiment]
First, an outline of the
〈概要〉
図1には、ライダ(Lidar:Light detecting and ranging)20Aが車両本体(移動体)に搭載される車両1(移動体装置)の外観が示されている。ライダ20Aは、レーザ光を出射して反射光を検知することで測距を行う測距装置であり、レーザレーダとも呼ばれる。第1実施形態のライダ20Aは、非走査型のライダである。
<Overview>
FIG. 1 shows the appearance of a vehicle 1 (moving body device) in which a lidar (Light detecting and ranking) 20A is mounted on a vehicle body (moving body). The
ライダ20Aは、一例として、車両1の前方のナンバープレート近傍に取り付けられている。なお、ライダ20Aは、車両1の例えばバックミラー近傍に配置されても良い。ライダ20Aは、例えば車両1のバッテリーから電力の供給を受ける。
As an example, the
なお、本明細書では、XYZ3次元直交座標系において、路面に直交する方向をZ軸方向、車両1の前進方向を+X方向として説明する。
In this specification, in the XYZ three-dimensional Cartesian coordinate system, the direction orthogonal to the road surface is described as the Z-axis direction, and the forward direction of the
図2には、ライダ20Aと監視制御装置30を備える監視システム10の構成がブロック図にて示されている。監視制御装置30は、車両1内に配備されている。すなわち、監視システム10は、車両1に搭載されている。
FIG. 2 shows a block diagram of the configuration of the
ライダ20Aは、一例として、図2に示されるように、光源としてのLD21a及びLD駆動部21bを含む投光系21と、受光素子22a、結像光学系22b及び電流電圧変換器22cを含む受光系22と、平均化/積算処理部24a及び二値化処理部24bを含む信号処理系24と、投光系21及び信号処理系24を制御する制御系23と、を備えている。なお、「LD」はレーザダイオードの略称である。
As an example, as shown in FIG. 2, the
監視システム10では、ライダ20Aの制御系23と監視制御装置30が電気的に接続されている。監視制御装置30は、ライダ20Aを動作させ、該ライダ20Aで検出された情報に基づいて、物体の形状や大きさの決定、物体の位置情報の算出、移動情報の算出、物体の種類の認識等の処理を行って、危険の有無を判断する。危険があると判断された場合には、警報を出したり、ハンドルを切って危険を回避したり、ブレーキを踏んだりするための指令を出す。これらの指令は、それぞれ車両1が有する警報装置、操舵装置、制動装置等に送られる。
In the
《物体検出及び測距の原理》
第1実施形態において、ライダ20Aを用いる物体検出、距離測定(測距)の基本的な原理は、いわゆる直接TOF法を用いている。この直接TOF法について、概念図である図3を用いて簡単に説明する。
<< Principle of object detection and ranging >>
In the first embodiment, the so-called direct TOF method is used as the basic principle of object detection and distance measurement (distance measurement) using the
制御系23は、投光系21から発光パルス(信号光)を含む投光波を投光したときの受光系22で受光される受光波における反射光パルス(信号光)の有無によって、投光範囲における物体の有無を判定することができる。
The
さらに、制御系23は、LD21aをパルス発光させたタイミング(投光波において発光パルスが射出されたタイミング)から、受光素子22aの受光タイミングまで(受光波において反射光パルスが受光素子22aに到達するまで)の時間を測定し、その測定値と光速を掛け合わせることで、ライダ20Aと物体の間を光が往復した距離を求めることができる。
Further, in the
投光系21と受光系22は物体に対してほぼ同一距離にあり、LD21aから物体までの距離と該物体から受光素子22aまでの距離はほぼ同一とみなせるため、制御系23は上述のようにして求めた距離の半分を、ライダ20Aから物体までの距離として算出する。
Since the light projecting
なお、光時間差法や光位相差法など時間計測の方法は種々あり、公知例が多数あるため割愛する。その公知例の中に、間接TOF法と呼ばれる方式(例えば特表2015-501927号公報、特表2013-538342号公報、特許5089289号公報参照)もある。本発明では、いずれの方式でも適用可能である。 There are various methods for measuring time such as the optical time difference method and the optical phase difference method, and since there are many known examples, they are omitted here. Among the known examples, there is also a method called an indirect TOF method (see, for example, Japanese Patent Application Laid-Open No. 2015-501927, Japanese Patent Application Laid-Open No. 2013-538342, Japanese Patent No. 5089289). In the present invention, any method can be applied.
ここで、角度分解能を得るために、投光系21、受光系22どちらで分解しても良い。投光系21で分解する場合、光源に独立に発光する発光エリアを複数設け、複数の発光エリアを順次点灯させる。これにより、投光している角度範囲を確定することができ、各発光エリアの発光タイミングから、受光素子の受光タイミングまでの時間によって該発光エリアに対応するエリアに存在する物体までの距離を測定することができる。
Here, in order to obtain the angular resolution, either the light projecting
特に、長距離検出を狙う場合は、ハイパワーの端面発光型LDは複数の発光エリアを持つことが難しいため、面発光レーザアレイを適用することが好ましく、図5に示されるように、カップリングレンズなどを含む光学系を用いて、検出領域(投光範囲)の各エリアに投光する領域を設定することが好ましい。 In particular, when aiming at long-distance detection, it is difficult for a high-power end face emitting LD to have a plurality of emitting areas, so it is preferable to apply a surface emitting laser array, and as shown in FIG. 5, coupling. It is preferable to set a light projecting area in each area of the detection area (light projecting range) by using an optical system including a lens or the like.
受光系22で分解する場合、受光素子に複数の受光エリアを設けると良い。この場合、検出領域を一斉に照射しても受光素子で受光エリア毎に独立に信号を検知できるので、検出領域を角度毎に分解することが可能となる。この場合、図4に示されるように、光源から射出され物体で反射された光を受光素子の複数の受光エリアへ集光する結像光学系22bを用いて、各受光エリアが検出する領域を設定することが好ましい。
When disassembling with the
図5では、光源もしくは受光素子の各エリアをY軸方向のみの1次元的な配列でしか示していないが、YZ平面に沿った2次元的な配列とし、Y軸方向及びZ軸方向の各方向で角度分解能を付与することも可能である。 In FIG. 5, each area of the light source or the light receiving element is shown only in a one-dimensional arrangement only in the Y-axis direction. It is also possible to impart angular resolution in the direction.
このように、Y軸方向及びZ軸方向の各方向での角度分解能が得られると、検出領域のエリア毎の距離情報を得ることができ、ひいては検出領域の距離画像を生成することができる。すなわち、検出領域を光源もしくは受光素子のエリア分割数だけ分割して測距でき、検出領域の分割された各エリアに対する1回の測距によって、1フレームの距離画像を生成することができる。例えば、光源の発光エリアもしくは受光素子の受光エリアが画素毎にエリア分割されている場合、検出領域の分割された各エリアが距離画像の各画素に1対1で対応する。そこで、検出領域の分割された各エリアを「画素領域」とも呼ぶ。 When the angular resolutions in the Y-axis direction and the Z-axis direction are obtained in this way, the distance information for each area of the detection region can be obtained, and the distance image of the detection region can be generated. That is, the detection area can be divided by the number of areas divided by the light source or the light receiving element to measure the distance, and one frame of distance image can be generated by one distance measurement for each divided area of the detection area. For example, when the light emitting area of the light source or the light receiving area of the light receiving element is divided into areas for each pixel, each divided area of the detection area corresponds to each pixel of the distance image on a one-to-one basis. Therefore, each divided area of the detection area is also referred to as a "pixel area".
そこで、第1実施形態のライダ20Aでは、光源もしくは受光素子の複数のエリア(発光エリア又は受光エリア)がYZ平面に沿って2次元配列されている。
Therefore, in the
図6には、ライダ20Aのあるフレームでの物体までの距離情報の検出結果(距離画像)が示されている。
FIG. 6 shows the detection result (distance image) of the distance information to the object in a certain frame of the
図6では、検出領域にある3つの物体A、物体B、物体Cのうち、物体Aがライダ20Aから最も近くにあり、物体Cがライダ20Aから最も遠くにある。すなわち、物体Aが最近接物体である。
In FIG. 6, of the three objects A, B, and C in the detection area, the object A is the closest to the
そこで、例えばライダ20Aから物体Aまでの距離が所定距離(例えば100m〜200mの所定距離)未満の場合に、投光範囲全域を均一な投光条件でサーチする非注目モードから、例えば投光範囲における最近接物体(ライダ20Aに最も近接する物体)である物体Aが存在する領域のみを高精度に検出するための注目モードに移行させる。注目モードに移行すると、制御系23により物体Aが存在する領域が注目領域として設定される。
Therefore, for example, when the distance from the
この際、路面、構造物等の静止物体(恒常的に静止している物体)を同時に検出している場合は、制御系23は、該静止物体を認識して、それを除いた検出結果に基づいて、複数の物体のうちいずれが最近接物体であるかを判断する。
At this time, when a stationary object (an object that is constantly stationary) such as a road surface or a structure is detected at the same time, the
ここでは、図6に示されるフレームに基づいて注目領域を決定しているが、このフレームよりも前のフレームも含めて、参照するフレームの数を増やすことも可能である。例えば、周囲の移動物体の経時的な動きを認識しながら、検出範囲内の物体の次フレーム以降の動線を予測し、車両1等の移動体の制御に反映させることや、静止物体と移動物体の別を判断することが可能となる。
Here, the region of interest is determined based on the frame shown in FIG. 6, but it is also possible to increase the number of frames to be referenced, including frames prior to this frame. For example, while recognizing the movement of a moving object around it over time, the flow line of an object within the detection range after the next frame can be predicted and reflected in the control of a moving object such as a
制御系23は、注目モードに移行すると、受光系22の出力信号(受光信号)について、SN比を向上させるために、例えば光源における注目領域へ投光する発光エリアの発光光量を増加させる。発光光量の増加は、当該発光エリアへの駆動電流の振幅やデューティを増加することによってもできるし(前者)、複数の発光点にて1つの発光エリアを構成する光源の場合は、そのうち点灯する発光点数を増やすことでも発光光量を増加させることもできる(後者)。なお、発光エリアへの駆動電流は、変調信号のパルス振幅やデューティ(パルス幅/パルス周期)を調整することにより制御できる。
When the
ここで、後者の制御について、図7を用いて詳しく説明する。図7には、検出領域の1エリアに投光するための発光点(以下では「ch」と呼ぶ)を36chとしたときの例が示されている。図7(a)及び図7(b)がそれぞれ非注目モードの点灯パターンであり、互いに異なる18chを点灯させる。 Here, the latter control will be described in detail with reference to FIG. FIG. 7 shows an example when the light emitting point (hereinafter referred to as “ch”) for projecting light into one area of the detection region is 36 ch. 7 (a) and 7 (b) are lighting patterns of the non-attention mode, respectively, and 18 channels different from each other are lit.
非注目モードの点灯パターンは、消灯しているch(発光点)の部分が照射抜けにならないように、光学系で弱発散光にするなどして適宜設定することが望ましい。また、chの寿命などの観点から、同じ非注目モードでも、図7(a)の点灯パターンと図7(b)の点灯パターンを交互に切り替えるようchを駆動するのが望ましい。 It is desirable to appropriately set the lighting pattern of the non-attention mode by setting the optical system to weakly divergent light so that the part of the ch (light emitting point) that is off is not missed. Further, from the viewpoint of the life of the ch, it is desirable to drive the ch so as to alternately switch between the lighting pattern of FIG. 7 (a) and the lighting pattern of FIG. 7 (b) even in the same non-attention mode.
非注目モードから、当該エリアが注目領域と判断されたときの点灯パターンが図7(c)に一例として示されている。この点灯パターンは、全36chを点灯させており、注目領域への投光光量を増加させることが可能となる。なお、各chに対応する照射領域(各chから照射される領域)を予め定め、注目領域に照射される投光光量が増加するように点灯するchを制御しても良い。 The lighting pattern when the area is determined to be the area of interest from the non-attention mode is shown as an example in FIG. 7 (c). In this lighting pattern, all 36 channels are lit, and it is possible to increase the amount of projected light to the region of interest. An irradiation region (area irradiated from each channel) corresponding to each channel may be defined in advance, and the channels to be lit may be controlled so that the amount of projected light emitted to the region of interest increases.
ここで、フレームレートが同一の条件下では、1フレームの間に、注目領域を照射する発光エリアの発光周期(発光パルスのパルス周期)を短くしたり、発光デューティ(発光パルスのパルス幅/パルス周期)を大きくすることでも、1フレーム毎の投光光量(1フレーム毎に投光される光の光量)を増加させることが可能である。なお、発光エリアの発光周期や発光デューティは、LD21aを駆動するLD駆動部21bに入力される変調信号のパルス周期やデューティ(パルス幅/パルス周期)を調整することで制御できる。
Here, under the condition that the frame rates are the same, the light emission cycle (pulse cycle of the light emission pulse) of the light emission area that irradiates the region of interest can be shortened or the light emission duty (pulse width / pulse of the light emission pulse) can be shortened during one frame. By increasing the period), it is possible to increase the amount of projected light for each frame (the amount of light projected for each frame). The light emission cycle and light emission duty of the light emission area can be controlled by adjusting the pulse cycle and duty (pulse width / pulse cycle) of the modulation signal input to the
また、発光周期を変えずに、注目領域に対してのみフレームレートを下げて、1フレーム毎の投光光量を増加することも考えられる。 It is also conceivable to reduce the frame rate only for the region of interest and increase the amount of projected light for each frame without changing the light emission cycle.
そして、非注目モードにおいて受光系22の受光信号をモニタし、注目モードに移行したときに、受光信号の信号レベルが閾値を上回るまで注目領域への投光(照射)を繰り返すことで、物体の有無や、物体までの距離等の物体に関する情報(物体情報)を高精度に検出することができる。
Then, the light receiving signal of the
また、受光信号の信号レベルをノイズレベルに対して考慮しても良い。例えば図8(b)に示されるように、ノイズレベルに対して信号レベルがあまり突出していない場合は、注目領域の画素領域毎に連続して複数回の投光を行い、該複数回の受光による受光系22の複数の受光信号を、後段の平均化/積算処理部24aで積算及び又は平均化することにより、信号成分が増大するとともに、ランダムノイズが時間的に積算及び/又は平均化して、ノイズレベルがゼロに近づいていくので、得られた信号(受光信号に基づく信号)のSN比を向上することが可能となる。すなわち、図8(a)に示されるような、ノイズレベルに対して受光信号の信号レベルが十分確保された状態と同様の状態となる。
Further, the signal level of the received signal may be considered with respect to the noise level. For example, as shown in FIG. 8B, when the signal level does not protrude so much with respect to the noise level, light is continuously projected a plurality of times for each pixel region of the region of interest, and the light is received a plurality of times. By integrating and / or averaging the plurality of received signals of the
閾値は、図8(b)の状態からそのまま下げるだけでは、ノイズが検出されるだけで、物体が検出できなくなってしまう。そこで、図8(b)に示されるように、予め想定されている最大のノイズレベルを基準に閾値を設定するのが好ましく、その設定値よりも閾値を下げるためには、受光信号の積算回数を増やして平均化処理をすることによりノイズレベルを下げることが必要となる。もしくは、積算する場合は、積算する回数に応じて、閾値を上下させると同様の効果を奏することができる。具体的には、積算する回数が多いほど閾値を上げ、少ないほど閾値を下げることが好ましい。 If the threshold value is lowered from the state shown in FIG. 8B as it is, only noise is detected and the object cannot be detected. Therefore, as shown in FIG. 8B, it is preferable to set the threshold value based on the maximum noise level assumed in advance, and in order to lower the threshold value below the set value, the number of times the received signal is integrated. It is necessary to reduce the noise level by increasing the number of noise levels and performing the averaging process. Alternatively, in the case of integration, the same effect can be obtained by raising or lowering the threshold value according to the number of integrations. Specifically, it is preferable to raise the threshold value as the number of times of integration increases and decrease the threshold value as the number of integrations decreases.
また、受光系22の検出信号のSN比の向上は、予め光源を点灯させていない状態のノイズレベルを保持しておき、光源を点灯させたときの受光波形から保持したノイズレベル差し引いて反射光パルスの波形(信号光の波形)を抽出することでも実現可能である。
Further, in order to improve the SN ratio of the detection signal of the
以上説明したような制御を行うことにより、ノイズなどに対して、注目領域から十分な信号光が得られるため、注目領域に存在する物体Aのノイズによる測距ばらつきを低減し、物体Aまでの距離情報をより高精度に検出することができる。そして、この距離情報により、移動体の減速・停止制御(制動制御)や回避制御(操舵制御)をより精緻に行うことが可能となる。 By performing the control as described above, sufficient signal light can be obtained from the region of interest with respect to noise and the like. Therefore, the distance measurement variation due to the noise of the object A existing in the region of interest is reduced, and the distance measurement variation up to the object A is reduced. Distance information can be detected with higher accuracy. Then, based on this distance information, deceleration / stop control (braking control) and avoidance control (steering control) of the moving body can be performed more precisely.
以上では、物体が検出されている場合について述べてきたが、物体が検出されていない場合に、検出できない物体が存在するかどうかを見極めるために、非注目モードのときに、検出領域全域を注目領域と見做して、高精度にサーチすることが好ましい。 In the above, the case where an object is detected has been described, but when the object is not detected, the entire detection area is focused on in the non-attention mode in order to determine whether or not there is an undetectable object. It is preferable to consider it as an area and search with high accuracy.
これにより、注目領域を設定しなければ検出が困難な、例えば、黒布のような光の反射率が小さいターゲットや、正反射成分が大きくライダ20Aへ反射・散乱してくる光の光量が少ないミラーやガラスのようなもの、角度分解能に対してサイズが小さく光量のロスが大きい小物体なども検出可能となる。これらの物体は、ライダ20Aにある程度近づけば検出できるが、至近距離で検出した場合の措置は、移動体を停止させることに限られてしまう。しかし、移動速度の減速が、許容される停止時間に応じた速度までに制限されてしまい、物体との衝突が懸念される。そこで、物体が至近距離まで近づくよりも前に検出することで、移動体の移動速度の上限を上げることが可能になる上、移動速度を落とさずに回避走行することも可能になる。
As a result, it is difficult to detect unless the region of interest is set, for example, a target with low light reflectance such as black cloth, a large specular reflection component, and a small amount of light reflected / scattered to the
また、例えば、図9(a)に示されるように、注目領域に存在する物体からの信号光を受光したときの受光信号である第1の受光信号の信号レベルが、ノイズレベルよりも充分に大きく設定された閾値1を上回るようにLD21a及び平均化/積算処理部24aの少なくとも一方を制御しても良い。この場合、第1の受光信号の信号レベルのSN比を格段に向上させることができる。さらに、例えば、図9(b)に示されるように、非注目領域に存在する物体からの信号光を受光したときの受光信号である第2の受光信号の信号レベルが、ノイズレベルよりも大きく、かつ閾値1よりも小さく設定された閾値2を上回り、閾値1を下回るようにLD21a及び平均化/積算処理部24aの少なくとも一方を制御しても良い。
Further, for example, as shown in FIG. 9A, the signal level of the first received signal, which is the received signal when the signal light from the object existing in the region of interest is received, is sufficiently higher than the noise level. At least one of the
結果として、第1の受光信号の信号レベルを第2の受光信号の信号レベルよりも大きくできる。また、第1の受光信号のSN比を第2の受光信号のSN比よりも大きくできる。 As a result, the signal level of the first received signal can be made higher than the signal level of the second received signal. Further, the SN ratio of the first received light signal can be made larger than the SN ratio of the second received light signal.
なお、第1の受光信号の信号レベルを、閾値1に代えて閾値2を基準に制御しても良い。
The signal level of the first received signal may be controlled based on the threshold value 2 instead of the
以下に、第1実施形態のライダ20Aについて、より詳細な説明を行う。
〈詳細〉
《投光系》
図2に戻り、投光系21は、一例として、YZ平面に沿って2次元配置された複数の発光点から成る発光点アレイを有するLD21a(レーザダイオード)と、各発光点を独立に駆動可能なLD駆動部21bとを含む。LD駆動部21bには、制御系23から発光点毎の変調信号(パルス信号)が入力される。LD駆動部21bは、発光点毎の変調信号が入力されると該変調信号に応じた駆動電流を該発光点に供給する。このとき、発光点から車両1の前方である+X方向に発光パルスが射出される。LD21aから射出された光が投光系21から投光された光である。各発光点からの光は、所定の拡散角で広がりながら進行する。LD21aからの全ての光の光路上であってYZ平面に平行な領域を「検出領域」や「投光範囲」と呼ぶ。複数の発光点は、検出領域の複数の画素領域に1対1で対応する。
Hereinafter, the
<detail>
《Light projection system》
Returning to FIG. 2, as an example, the
なお、LD21aの安全性やLD21aの耐久性の観点からLD21aの各発光点の発光デューティ(発光時間/発光周期)が制限されるため、発光パルスはパルス幅が狭い方が望ましく、該パルス幅は、一般に数ns〜数十ns程度に設定される。また、発光パルスのパルス間隔は一般に数十μ秒程度である。 Since the emission duty (emission time / emission cycle) at each emission point of the LD21a is limited from the viewpoint of the safety of the LD21a and the durability of the LD21a, it is desirable that the emission pulse has a narrow pulse width, and the pulse width is the same. , Generally, it is set to about several ns to several tens of ns. The pulse interval of the emission pulse is generally about several tens of microseconds.
また、LD21aからの光を例えばレンズを介して投光することにより、検出領域の大きさを調整することができる。例えば、検出領域を広げたい場合は凹パワーのカップリングレンズをLD21aからの光の光路上に設け、狭めたい場合は凸パワーのカップリングレンズをLD21aからの光の光路上に設けても良い。 Further, the size of the detection region can be adjusted by projecting the light from the LD21a through, for example, a lens. For example, if it is desired to widen the detection region, a concave power coupling lens may be provided on the optical path of the light from the LD21a, and if it is desired to be narrowed, a convex power coupling lens may be provided on the optical path of the light from the LD21a.
また、LD21aの発光点が持つ発光領域が無視できない場合は、検出領域に応じて、無限遠でLD発光領域の共役像が現れるようなカップリング状態とし、投光分布を均一にしやすくすることもできる。投光分布に関しては、切妻型の面など、種々の光学素子形状を用いて、制御することが可能である。 Further, when the light emitting region of the light emitting point of the LD21a cannot be ignored, a coupling state is set so that a conjugate image of the LD light emitting region appears at infinity according to the detection region, so that the light projection distribution can be easily made uniform. can. The light projection distribution can be controlled by using various optical element shapes such as a gable-shaped surface.
また、検出領域を広げる場合は、マイクロレンズアレイやすりガラスのような拡散板の機能を持つ光学素子をLD21aからの光の光路上に配置しても良い。 Further, when expanding the detection region, an optical element having a function of a diffuser such as a microlens array or frosted glass may be arranged on the optical path of the light from the LD21a.
ここで、光源としては、LDに限らず、例えば面発光レーザ(VCSEL)、LEDなど、種々の光源が代用可能である。 Here, the light source is not limited to the LD, and various light sources such as a surface emitting laser (VCSEL) and an LED can be substituted.
《受光系》
受光系22は、一例として、単一の受光エリアを有する受光素子22a、結像光学系22b、電流電圧変換器22cを含む。
《Light receiving system》
As an example, the
図4では、投光系21と受光系22が、Y軸方向に並置されているが、Z軸方向に積層されても良い。
In FIG. 4, the
受光素子としては、PD(photodiode)やAPD(avalanche photodiode)、ガイガーモードAPDであるSPAD(single photon avalanche diode)、TOF(Time of Flight)演算機能を画素毎に有するCMOS撮像素子(以降、TOFセンサ)等がある。APDやSPADはPDに対して感度が高いため、検出精度や検出距離の点で有利であり、望ましい。そこで、第1実施形態では、受光素子22aとしてAPDを用いている。
As the light receiving element, a CMOS imaging device (hereinafter, TOF sensor) having a PD (photodiode), an APD (avalanche photodiode), a Geiger mode APD SPAD (single photodiode avalanche diode), and a TOF (Time of Flight) calculation function for each pixel. ) Etc. Since APD and SPAD have high sensitivity to PD, they are advantageous in terms of detection accuracy and detection distance, and are desirable. Therefore, in the first embodiment, the APD is used as the
ここで、検出領域内に物体がある場合、光源からの光ビームが、物体で反射したり散乱したりする。その反射光や散乱光は、結像光学系22bによって受光素子22aに集光する。結像光学系22bはレンズ系やミラー系、その他、受光素子22aへ光を集光可能な構成であれば良い。受光素子22aの出力電流は、電流電圧変換器22cで電圧信号(受光信号)に変換され、該電圧信号は信号処理系24に送られる。ここでは、受光素子22a及び電流電圧変換器22cを含んで「光検出器」が構成される。なお、光検出器は、光検出可能な構成を有するものであれば良く、例えば光入射により生じた熱を検知して光検出するものであっても良い。
Here, when there is an object in the detection area, the light beam from the light source is reflected or scattered by the object. The reflected light and scattered light are collected on the
LD21aの複数の発光点を順次点灯し、点灯毎に受光信号の有無をモニタすることにより、受光信号に対応する発光点(物体からの反射光に対応する発光点)を特定することができる。そこで、特定された発光点のアレイ内における位置から、検出領域における物体が存在する画素領域を特定でき、ひいては該物体の位置情報を求めることができる。 By sequentially lighting a plurality of light emitting points of the LD21a and monitoring the presence or absence of a light receiving signal for each lighting, a light emitting point corresponding to the light receiving signal (light emitting point corresponding to the reflected light from an object) can be specified. Therefore, from the position of the specified light emitting point in the array, the pixel region in which the object exists in the detection region can be specified, and the position information of the object can be obtained.
《信号処理系》
信号処理系24は、一例として、平均化/積算処理部24a、二値化処理部24bを含む。
<< Signal processing system >>
As an example, the
平均化/積算処理部24aは、受光系22から順次出力される複数の受光信号を平均化及び/又は積算し、得られた信号を二値化処理部24bに出力する。
The averaging / integration processing unit 24a averages and / or integrates a plurality of light receiving signals sequentially output from the
二値化処理部24bは、信号検出用の閾値が設定され、入力信号の信号レベルが閾値よりも大きい場合に入力信号を二値化し(検出し)、その二値化信号を検出信号として制御系23に出力する。
The
なお、信号処理系24において、平均化/積算処理部24aを省略することもできる。すなわち、受光系22から受光信号を二値化処理部24bに直接出力しても良い。
In the
《制御系》
制御系23は、一例として、測定制御部23a、注目領域設定部23c、時間計測部23d、距離演算部23eを含む。
《Control system》
As an example, the
測定制御部23aは、監視制御装置30から測定開始要求を受けると、変調信号(パルス信号)を生成し、該変調信号をLD駆動部21b及び時間計測部23dに出力する。測定制御部23aは、必要に応じて変調信号のパルス振幅、パルス周期及びパルス幅の少なくとも1つを調整する。
Upon receiving the measurement start request from the
また、測定制御部23aは、後述する閾値設定処理において、受光信号を二値化(検出)するための閾値を設定し、その設定情報(閾値設定情報)を二値化処理部24bに出力する。
Further, the
また、測定制御部23aは、信号処理系24からの検出信号の有無によって検出領域における物体の有無を判定し「有り」と判定した場合に該検出信号に基づいて物体の位置情報を求め、必要に応じて注目領域設定要求と物体の位置情報を注目領域設定部23cに送る。
Further, the
注目領域設定部23cは、測定制御部23aからの注目領域設定要求及び物体の位置情報を受け取ると、該位置情報に基づいて検出領域における物体が存在する少なくとも1つの領域を注目領域として設定し、その設定情報である注目領域設定情報を測定制御部23aに出力する。
Upon receiving the attention area setting request from the
時間計測部23dは、二値化処理部24bからの、画素領域毎の検出信号(二値化信号)に基づいて受光素子22aでの受光タイミングを求め、該受光タイミングと測定制御部23aからの変調信号の立ち上がりタイミングとの時間差を求め、該時間差を計測時間として距離演算部23eに出力する。受光タイミングの求め方としては、例えば受光信号が閾値を横切る2つのタイミングの間のタイミング(例えば中間タイミング)や、受光信号が閾値を下から上に横切るタイミングとすることが考えられる。
The
距離演算部23eは、時間計測部23dからの画素領域毎の計測時間を距離に変換することで物体までの往復距離を求め、該往復距離の1/2を距離データとして監視制御装置30に出力し、さらに必要に応じて測定制御部23aにも出力する。距離演算部23eからの画素領域毎の距離データは、全体として上述した距離画像を構成する。
The distance calculation unit 23e obtains the round-trip distance to the object by converting the measurement time for each pixel region from the
監視制御装置30は、距離演算部23eからの距離データ(距離画像)に基づいて例えば車両1の操舵制御(例えばオートステアリング)、速度制御(例えばオートブレーキ)等を行う。
The
以下に、測定制御部23aによって実施される閾値設定処理について、図10のフローチャートを参照して説明する。この閾値設定処理は定期的に(例えば数分〜数時間毎に)行われる。
The threshold value setting process performed by the
《閾値設定処理》
最初のステップU1では、外乱ノイズレベルを取得する。具体的には、LD21aが発光していないときの受光素子22aの出力を外乱ノイズ(例えば太陽光、照明光等の外乱光によるノイズ、回路ノイズ等)のノイズレベルとして取得する。
<< Threshold setting process >>
In the first step U1, the disturbance noise level is acquired. Specifically, the output of the
次のステップU2では、取得した外乱ノイズレベルをメモリに保存する。 In the next step U2, the acquired disturbance noise level is saved in the memory.
次のステップU3では、受光信号を二値化するための閾値を設定する。具体的には、投光範囲全域に対して外乱ノイズレベル(より正確には外乱ノイズレベルの最大値)よりも大きい閾値thを一律に設定し、その設定情報を二値化処理部24bに送る。
In the next step U3, a threshold value for binarizing the received signal is set. Specifically, a threshold value th larger than the disturbance noise level (more accurately, the maximum value of the disturbance noise level) is uniformly set for the entire projection range, and the setting information is sent to the
以下に、上記第1実施形態のライダ20Aを用いて物体に関する情報を検出する物体検出処理1について説明する。
Hereinafter, the
《物体検出処理1》
物体検出処理1を、図11を参照して説明する。図11のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理1は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<<
The
最初のステップS1では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLD21aの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。
In the first step S1, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD21a of the light projecting
次のステップS2では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、「無し」のときは「物体なし」と判断する。ステップS2での判断が肯定されるとステップS3に移行し、否定されると同じ判断を再び行う。
In the next step S2, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence / absence of the detection signal from the
ステップS3では、物体が存在する領域を特定する。具体的には、ステップS2における検出信号の生成に関与した複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S3, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S2 are specified. That is, the position information of the object is specified.
次のステップS4では、物体が複数か否かを判断する。具体的には、ステップS3で特定された複数の画素領域から成る箇所が複数箇所あるか否かで判断する。ここでの判断が否定されるとステップS5に移行し、肯定されるとステップS8に移行する。 In the next step S4, it is determined whether or not there are a plurality of objects. Specifically, it is determined whether or not there are a plurality of locations composed of the plurality of pixel regions specified in step S3. If the judgment here is denied, the process proceeds to step S5, and if affirmed, the process proceeds to step S8.
ステップS5では、物体までの距離を取得する。具体的には、ステップS2における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S5, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S2 is acquired.
ステップS6では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS7に移行し、否定されるとステップS13に移行する。 In step S6, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S7, and if denied, the process proceeds to step S13.
ステップS7では、物体が存在する領域を注目領域として設定する。ステップS7が実行されると、ステップS11に移行する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。
In step S7, the area where the object exists is set as the area of interest. When step S7 is executed, the process proceeds to step S11. Specifically, the attention area setting request and the position information of the object are sent to the attention
ステップS8では、各物体までの距離を取得する。具体的には、ステップS2における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S8, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S2 is acquired.
次のステップS9では、最近接物体(ライダ20Aに最も近い物体)までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS10に移行し、否定されるとステップS13に移行する。
In the next step S9, it is determined whether or not the distance to the closest object (the object closest to the
ステップS10では、最近接物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と最近接物体の位置情報を送る。このとき、注目領域設定部23cは、最近接物体を囲む該最近接物体よりも幾分大きい領域を注目領域として設定する(図6参照)。ステップS10が実行されると、ステップS11に移行する。
In step S10, the region where the closest object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the closest object are sent to the attention
ステップS11では、「SN比維持向上処理」を実施する。SN比維持向上処理の詳細は後述する。 In step S11, the “SN ratio maintenance / improvement process” is carried out. Details of the SN ratio maintenance / improvement process will be described later.
ステップS12では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。ステップS12が実行されると、ステップS13に移行する。 In step S12, the distance to each pixel region of the object of interest (the object existing in the region of interest) is calculated. The total of the calculated distances is the distance image of the object of interest. When step S12 is executed, the process proceeds to step S13.
ステップS13では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS13での判断が肯定されるとフローは終了し、否定されるとステップS2に戻る。
In step S13, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the
以上説明した物体検出処理1では、特にライダ20Aの射程範囲(射程距離)にある最近接物体に対してSN比を上げながら重点的に測定を行うことで、該最近接物体の位置、大きさ、形状等の情報を精度良く検出できる。
In the
次に、上記ステップS11における「SN比維持向上処理」の具体例である「SN比維持向上処理1」、「SN比維持向上処理2」、「SN比維持向上処理3」について説明する。
Next, "SN ratio maintenance /
《SN比維持向上処理1》
以下に、SN比維持向上処理1について図12を参照して説明する。図12のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。ここでは、信号処理系24は、平均化/積算処理部24aを有していない。
<< Maintenance and improvement process of
The SN ratio maintenance /
最初のステップT1では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT1での判断が肯定されるとフローは終了し、否定されるとステップT2に移行する。
In the first step T1, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the
ステップT2では、注目領域に対する投光光量を上げる。具体的には、注目領域に対応する全ての発光点に対応する変調信号のパルス振幅を大きくする。ここでは、注目領域に対する投光光量を、上記物体検出処理1のステップS1での投光光量である通常の投光光量よりも大きくする。なお、上記物体検出処理1のステップS1において一部の発光点のみを発光させる場合、ステップT2において発光させる発光点の数を多くしても良い。
In step T2, the amount of projected light with respect to the region of interest is increased. Specifically, the pulse amplitude of the modulated signal corresponding to all the light emitting points corresponding to the region of interest is increased. Here, the amount of light projected on the region of interest is made larger than the amount of normal light projected, which is the amount of light projected in step S1 of the
次のステップT3では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT3での判断が肯定されるとステップT4に移行し、否定されるとステップT2に戻る。
In the next step T3, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the
このように、ステップT2、T3によって、注目物体からの反射光による受光信号が検出されるまで、注目領域への投光光量が上げられる。この結果、受光信号のSN比を向上させることができる。一方、ステップT1での判断が肯定されたときは、受光信号のSN比が維持されることになる。なお、ステップT2を複数回行う場合には、回を追うごとに投光光量が上がることになる。 In this way, in steps T2 and T3, the amount of projected light to the region of interest is increased until the received signal due to the reflected light from the object of interest is detected. As a result, the SN ratio of the received signal can be improved. On the other hand, when the determination in step T1 is affirmed, the SN ratio of the received signal is maintained. When step T2 is performed a plurality of times, the amount of projected light increases as the steps T2 are repeated.
次のステップT4では、注目領域に対する投光光量を通常の投光光量に戻す。ステップT4が実行されると、フローは終了する。 In the next step T4, the amount of projected light for the region of interest is returned to the normal amount of projected light. When step T4 is executed, the flow ends.
《SN比維持向上処理2》
以下に、SN比維持向上処理2について図13を参照して説明する。図13のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。ここでは、信号処理系24は、平均化/積算処理部24aを有している。
<< Maintenance and improvement process of SN ratio 2 >>
The SN ratio maintenance / improvement process 2 will be described below with reference to FIG. The flowchart of FIG. 13 is based on a processing algorithm executed by the
最初のステップT11では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT11での判断が肯定されるとフローは終了し、否定されるとステップT12に移行する。
In the first step T11, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the
ステップT12では、注目領域に対する投光周期を短くする。具体的には、注目領域に対応する全ての発光点に対応する変調信号のパルス周期を短くする(周波数を高くする)。ここでは、注目領域に対する投光周期を、物体検出処理1のステップS1での投光周期である通常の投光周期では1フレーム毎に1回投光するところ、1フレーム毎に複数回投光されるように投光周期が短く設定される。
In step T12, the photoperiod with respect to the region of interest is shortened. Specifically, the pulse period of the modulated signal corresponding to all the light emitting points corresponding to the region of interest is shortened (the frequency is increased). Here, the photoperiod for the region of interest is projected once per frame in the normal projectile cycle, which is the projecting cycle in step S1 of the
次のステップT13では、注目物体からの反射光による受光信号を平均化及び/又は積算する。具体的には、1フレーム毎に、複数回の投光による複数回の受光で得られた複数の受光信号を平均化及び/又は積算する。これにより、受光信号のSN比を向上させることができる。一方、ステップT11での判断が肯定されたときは、受光信号のSN比が維持されることになる。なお、受光素子22aからの信号電荷を蓄積するコンデンサを設ければ、1フレーム毎に、複数の受光信号の信号電荷をコンデンサに蓄積し、蓄積された信号電荷を一気に出力することができる。
In the next step T13, the received signal due to the reflected light from the object of interest is averaged and / or integrated. Specifically, for each frame, a plurality of received light signals obtained by receiving a plurality of times by flooding a plurality of times are averaged and / or integrated. Thereby, the SN ratio of the received signal can be improved. On the other hand, when the determination in step T11 is affirmed, the SN ratio of the received signal is maintained. If a capacitor for accumulating the signal charge from the
次のステップT14では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT14での判断が肯定されるとステップT15に移行し、否定されるとステップT12に戻る。
In the next step T14, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the
このように、ステップT12〜T14によって、注目物体からの反射光による受光信号が検出されるまで、注目領域に対する投光周期が短くされる。すなわち、1フレーム毎に平均化及び/又は積算される受光信号の数が増加される。ステップT12を複数回行う場合は、回を追うごとに、1フレーム毎の投光周期が短くなり受光回数が増えて平均化及び/又は積算される受光信号の数も増えることになる。 In this way, the projection period for the region of interest is shortened until the received signal due to the reflected light from the object of interest is detected by steps T12 to T14. That is, the number of received signals that are averaged and / or integrated is increased for each frame. When step T12 is performed a plurality of times, the photoperiod cycle for each frame becomes shorter, the number of times of light reception increases, and the number of light-receiving signals averaged and / or integrated increases as the times are repeated.
次のステップT15では、注目領域に対する投光周期を元の値(通常の投光周期)に戻す。ステップT15が実行されると、フローは終了する。 In the next step T15, the photoperiod for the region of interest is returned to the original value (normal photoperiod). When step T15 is executed, the flow ends.
《SN比維持向上処理3》
以下に、SN比維持向上処理3について図14を参照して説明する。図14のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。ここでは、信号処理系24は、平均化/積算処理部24aを有している。
<< SN ratio maintenance and improvement processing 3 >>
The SN ratio maintenance / improvement process 3 will be described below with reference to FIG. The flowchart of FIG. 14 is based on a processing algorithm executed by the
最初のステップT21では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT21での判断が肯定されるとフローは終了し、否定されるとステップT22に移行する。
In the first step T21, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the
ステップT22では、注目領域に対するフレームレートを下げる。具体的には、注目領域に対するフレームレートを、物体検出処理1のステップS1でのフレームレートである通常のフレームレートでは1フレーム毎に1回受光するところ、注目領域において1フレーム毎に複数回受光するようにフレームレートを下げる。
In step T22, the frame rate with respect to the region of interest is lowered. Specifically, the frame rate for the region of interest is received once per frame at the normal frame rate, which is the frame rate in step S1 of the
次のステップT23では、注目物体からの反射光による受光信号を平均化及び/又は積算する。具体的には、1フレーム毎に、複数回の受光で得られた複数の受光信号を平均化及び/又は積算する。これにより、受光信号のSN比を向上させることができる。一方、ステップT21での判断が肯定されたときは、受光信号のSN比が維持されることになる。なお、受光素子22aからの電荷を蓄積するコンデンサを設ければ、1フレーム毎に、複数の受光信号の信号電荷をコンデンサに蓄積し、蓄積された信号電荷を一気に出力することができる。
In the next step T23, the received signal due to the reflected light from the object of interest is averaged and / or integrated. Specifically, for each frame, a plurality of received light signals obtained by receiving a plurality of times of light reception are averaged and / or integrated. Thereby, the SN ratio of the received signal can be improved. On the other hand, when the determination in step T21 is affirmed, the SN ratio of the received signal is maintained. If a capacitor for accumulating the electric charge from the
次のステップT24では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT24での判断が肯定されるとステップT25に移行し、否定されるとステップT22に戻る。
In the next step T24, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the
このように、ステップT22〜T24によって、注目物体からの反射光による受光信号が検出されるまで、注目領域に対するフレームレートが下げられる。この結果、受光信号のSN比を向上させることができる。すなわち、1フレーム毎に平均化及び/又は積算される受光信号の数が増加される。ステップT22を複数回行う場合は、回を追うごとにフレームレートが下げられ受光回数が増えて平均化及び/又は積算される受光信号の数も増えることになる。 In this way, in steps T22 to T24, the frame rate with respect to the region of interest is lowered until the received signal due to the reflected light from the object of interest is detected. As a result, the SN ratio of the received signal can be improved. That is, the number of received signals that are averaged and / or integrated is increased for each frame. When step T22 is performed a plurality of times, the frame rate is lowered and the number of times of receiving light is increased, and the number of received light signals to be averaged and / or integrated is also increased.
次のステップT25では、注目領域に対するフレームレートを元の値(通常のフレームレート)に戻す。ステップT25が実行されると、フローは終了する。 In the next step T25, the frame rate for the region of interest is returned to the original value (normal frame rate). When step T25 is executed, the flow ends.
なお、SN比維持向上処理1の投光光量を上げることと、SN比維持向上処理2の投光周期を短くすることと、SN比維持向上処理3のフレームレートを下げることと、の少なくとも2つを組み合わせて、SN比維持向上処理4を構成しても良い。
It should be noted that at least two of increasing the amount of light projected by the SN ratio maintenance and
以下に、第1実施形態のライダ20Aを用いて物体に関する情報を検出する物体検出処理2〜6について説明する。
Hereinafter, object detection processes 2 to 6 for detecting information about an object using the
《物体検出処理2》
物体検出処理2を、図15を参照して説明する。図15のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理2は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 2 >>
The object detection process 2 will be described with reference to FIG. The flowchart of FIG. 15 is based on a processing algorithm executed by the
最初のステップS21では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。
In the first step S21, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting
次のステップS22では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS22での判断が肯定されるとステップS22.5に移行し、否定されると同じ判断を再び行う。
In the next step S22, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the
ステップS22.5では、物体が存在する領域を特定する。具体的には、ステップS22における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S22.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S22 are specified. That is, the position information of the object is specified.
ステップS23では、移動物体があるか否かを判断する。例えば距離画像の連続する複数のフレームにおける物体の位置とフレームレートから、物体とライダ20Aの相対速度の変化を算出し、該変化が基準値以上の場合に該物体を「移動物体」と判定し、該基準値未満の場合に該物体を「静止物体」と判定する。ステップS23での判断が否定されるとステップS24に移行し、肯定されるとステップS27に移行する。
In step S23, it is determined whether or not there is a moving object. For example, the change in the relative velocity between the object and the
ステップS24では、物体までの距離を取得する。具体的には、ステップS22における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S24, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S22.
次のステップS25では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS26に移行し、否定されるとステップS33に移行する。 In the next step S25, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S26, and if denied, the process proceeds to step S33.
次のステップS26では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS26が実行されると、ステップS31に移行する。
In the next step S26, the region where the object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention
ステップS27では、移動物体が複数か否かを判断する。具体的には、ステップS23で判定された移動物体の数が複数か否かを判断する。ここでの判断が否定されるとステップS24に移行し、肯定されるとステップS28に移行する。 In step S27, it is determined whether or not there are a plurality of moving objects. Specifically, it is determined whether or not the number of moving objects determined in step S23 is plural. If the determination here is denied, the process proceeds to step S24, and if affirmed, the process proceeds to step S28.
ステップS28では、各物体までの距離を取得する。具体的には、ステップS22における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S28, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S22.
次のステップS29では、最近接移動物体(ライダ20Aに最も近い移動物体)までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS30に移行し、否定されるとステップS33に移行する。
In the next step S29, it is determined whether or not the distance to the closest moving object (moving object closest to the
ステップS30では、最近接移動物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と最近接移動物体の位置情報を送る。このとき、注目領域設定部23cは、最近接移動物体を囲む該最近接移動物体よりも幾分大きい領域を注目領域として設定する(図6参照)。
In step S30, the region where the closest moving object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the closest moving object are sent to the attention
次のステップS31では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。
In the next step S31, the “SN ratio maintenance / improvement process” is carried out. Here, for example, any of the above-mentioned SN ratio maintenance /
ステップS32では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。ステップS32が実行されると、ステップS33に移行する。 In step S32, the distance to each pixel region of the object of interest (the object existing in the region of interest) is calculated. The total of the calculated distances is the distance image of the object of interest. When step S32 is executed, the process proceeds to step S33.
ステップS33では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS33での判断が肯定されるとフローは終了し、否定されるとステップS22に戻る。
In step S33, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the
以上説明した物体検出処理2では、特にライダ20Aの射程範囲にある最近接移動物体に対してSN比を上げながら重点的に計測を行うことで、該最近接移動物体の位置、大きさ、形状等の情報を精度良く検出できる。
In the object detection process 2 described above, the position, size, and shape of the closest moving object are measured by focusing on the closest moving object in the range of the
《物体検出処理3》
物体検出処理3を、図16を参照して説明する。図16のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理3は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 3 >>
The object detection process 3 will be described with reference to FIG. The flowchart of FIG. 16 is based on a processing algorithm executed by the
最初のステップS41では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。
In the first step S41, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting
次のステップS42では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS42での判断が肯定されるとステップS42.5に移行し、否定されると同じ判断を再び行う。
In the next step S42, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the
ステップS42.5では、物体が存在する領域を特定する。具体的には、ステップS42における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S42.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S42 are specified. That is, the position information of the object is specified.
ステップS43では、移動物体があるか否かを判断する。具体的には、例えば距離画像の連続する複数のフレームにおける物体の位置とフレームレートから、物体とライダ20Aの相対速度の変化を算出し、該変化が基準値以上の場合に該物体を「移動物体」と判定し、該基準値未満の場合に該物体を「静止物体」と判定する。ステップS43での判断が否定されるとステップS45に移行し、肯定されるとステップS44に移行する。
In step S43, it is determined whether or not there is a moving object. Specifically, for example, the change in the relative velocity between the object and the
ステップS45では、物体までの距離を取得する。具体的には、ステップS42における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S45, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S42 is acquired.
次のステップS46では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS47に移行し、否定されるとステップS53に移行する。 In the next step S46, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S47, and if denied, the process proceeds to step S53.
次のステップS47では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS47が実行されると、ステップS51に移行する。
In the next step S47, the region where the object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention
ステップS44では、移動物体が複数か否かを判断する。具体的には、ステップS43で判定された移動物体の数が複数か否かを判断する。ここでの判断が否定されるとステップS45に移行し、肯定されるとステップS48に移行する。 In step S44, it is determined whether or not there are a plurality of moving objects. Specifically, it is determined whether or not the number of moving objects determined in step S43 is plural. If the determination here is denied, the process proceeds to step S45, and if affirmed, the process proceeds to step S48.
ステップS48では、各物体までの距離を取得する。具体的には、ステップS42における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S48, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S42 is acquired.
次のステップS49では、距離が所定距離(例えば100m)未満の移動物体があるか否かを判断する。ここでの判断が肯定されるとステップS50に移行し、否定されるとステップS53に移行する。 In the next step S49, it is determined whether or not there is a moving object whose distance is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S50, and if denied, the process proceeds to step S53.
ステップS50では、距離が所定距離未満の移動物体が存在する全ての領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と移動物体の位置情報を送る。このとき、注目領域設定部23cは、距離が所定距離未満の移動物体を囲む該移動物体よりも幾分大きい領域を注目領域として設定する。
In step S50, all regions in which moving objects having a distance less than a predetermined distance exist are set as regions of interest. Specifically, the attention area setting request and the position information of the moving object are sent to the attention
次のステップS51では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。
In the next step S51, the “SN ratio maintenance / improvement process” is carried out. Here, for example, any of the above-mentioned SN ratio maintenance /
ステップS52では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。ステップS52が実行されると、ステップS53に移行する。 In step S52, the distance to each pixel region of the object of interest (the object existing in the region of interest) is calculated. The total of the calculated distances is the distance image of the object of interest. When step S52 is executed, the process proceeds to step S53.
ステップS53では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS53での判断が肯定されるとフローは終了し、否定されるとステップS42に戻る。
In step S53, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the
以上説明した物体検出処理3では、特にライダ20Aの射程距離にある全ての移動物体に対してSN比を上げながら重点的に計測を行うことで、該移動物体の位置、大きさ、形状等の情報を精度良く検出できる。
In the object detection process 3 described above, the position, size, shape, etc. of the moving object can be determined by focusing on the measurement while increasing the SN ratio for all the moving objects within the range of the
《物体検出処理4》
物体検出処理4を、図17を参照して説明する。図17のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理4は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 4 >>
The object detection process 4 will be described with reference to FIG. The flowchart of FIG. 17 is based on a processing algorithm executed by the
最初のステップS61では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。
In the first step S61, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting
次のステップS62では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS62での判断が肯定されるとステップS62.5に移行し、否定されると同じ判断を再び行う。
In the next step S62, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the
ステップS62.5では、物体が存在する領域を特定する。具体的には、ステップS62における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S62.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S62 are specified. That is, the position information of the object is specified.
次のステップS63では、移動物体があるか否かを判断する。例えば距離画像の連続する複数のフレームにおける物体の位置とフレームレートから、物体とライダ20Aの相対速度の変化が基準値以上の場合に該物体を「移動物体」と判定し、該基準値未満の場合に該物体を「静止物体」と判定する。ステップS63での判断が否定されるとステップS64に移行し、肯定されるとステップS67に移行する。
In the next step S63, it is determined whether or not there is a moving object. For example, if the change in the relative velocity between the object and the
ステップS64では、物体までの距離を取得する。具体的には、ステップS62における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S64, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S62.
次のステップS65では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS66に移行し、否定されるとステップS74に移行する。 In the next step S65, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S66, and if denied, the process proceeds to step S74.
ステップS66では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS66が実行されると、ステップS71に移行する。
In step S66, the area where the object exists is set as the area of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention
ステップS67では、移動物体が複数か否かを判断する。具体的には、ステップS63で判定された移動物体の数が複数か否かを判断する。ここでの判断が否定されるとステップS64に移行し、肯定されるとステップS68に移行する。 In step S67, it is determined whether or not there are a plurality of moving objects. Specifically, it is determined whether or not the number of moving objects determined in step S63 is plural. If the determination here is denied, the process proceeds to step S64, and if affirmed, the process proceeds to step S68.
ステップS68では、各物体までの距離を取得する。具体的には、ステップS62における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S68, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S62.
次のステップS69では、距離が所定距離(例えば100m)未満の移動物体があるか否かを判断する。ここでの判断が肯定されるとステップS70に移行し、否定されるとステップS74に移行する。 In the next step S69, it is determined whether or not there is a moving object whose distance is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S70, and if denied, the process proceeds to step S74.
ステップS70では、距離が所定距離未満の全ての移動物体のライダ20Aへの接近速度を算出する。具体的には、距離画像の連続するフレーム間での物体の位置の変化とフレームレートから、該物体の接近速度を算出する。なお、「接近速度」は、例えば、移動物体がライダ20Aに接近している場合を+、離間している場合を−とする。
In step S70, the approach speed of all moving objects whose distance is less than a predetermined distance to the
次のステップS71では、接近速度が最速の移動物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と接近速度が最速の移動物体の位置情報を送る。このとき、注目領域設定部23cは、接近速度が最速の移動物体を囲む該移動物体よりも幾分大きい領域を注目領域として設定する。
In the next step S71, the region where the moving object having the fastest approach speed exists is set as the region of interest. Specifically, the attention area setting request and the position information of the moving object having the fastest approach speed are sent to the attention
次のステップS72では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。
In the next step S72, the “SN ratio maintenance / improvement process” is carried out. Here, for example, any of the above-mentioned SN ratio maintenance /
次のステップS73では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。 In the next step S73, the distance of the object of interest (the object existing in the region of interest) to each pixel region is calculated. The total of the calculated distances is the distance image of the object of interest.
ステップS74では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS74での判断が肯定されるとフローは終了し、否定されるとステップS62に戻る。
In step S74, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the
以上説明した物体検出処理4では、特にライダ20Aの射程範囲にある接近速度が最速の移動物体に対してSN比を上げながら重点的に測定を行うことで、該移動物体の位置、大きさ、形状、移動速度等の情報を精度良く検出できる。
In the object detection process 4 described above, the position, size, and position of the moving object are measured by focusing on the moving object having the fastest approaching speed in the range of the
《物体検出処理5》
物体検出処理5を、図18を参照して説明する。図18のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理5は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<<
The
最初のステップS81では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。
In the first step S81, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting
次のステップS82では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS82での判断が肯定されるとステップS82.5に移行し、否定されると同じ判断を再び行う。
In the next step S82, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the
ステップS82.5では、物体が存在する領域を特定する。具体的には、ステップS82における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を求める。 In step S82.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to the plurality of light emitting points involved in the generation of the detection signal in step S82 are specified. That is, the position information of the object is obtained.
次のステップS83では、低反射物体があるか否かを判断する。ここでは、ステップS82における検出信号の元となる受光信号の信号レベル(受光量)を取得し、該信号レベルの、ステップS82.5で求めた物体の位置情報から得られる該物体までの距離に対する比が所定値未満の場合に、該物体を低反射物体と見做す。ステップS83での判断が否定されるとステップS84に移行し、肯定されるとステップS87に移行する。 In the next step S83, it is determined whether or not there is a low reflection object. Here, the signal level (light receiving amount) of the received light signal that is the source of the detection signal in step S82 is acquired, and the distance to the object obtained from the position information of the object obtained in step S82.5 of the signal level is relative to the distance to the object. When the ratio is less than a predetermined value, the object is regarded as a low reflection object. If the determination in step S83 is denied, the process proceeds to step S84, and if affirmed, the process proceeds to step S87.
ステップS84では、物体までの距離を取得する。具体的には、ステップS82における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S84, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S82.
次のステップS85では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS86に移行し、否定されるとステップS93に移行する。 In the next step S85, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S86, and if denied, the process proceeds to step S93.
ステップS86では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS86が実行されると、ステップS91に移行する。
In step S86, the area where the object exists is set as the area of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention
ステップS87では、低反射物体が複数か否かを判断する。具体的には、ステップS82.5で求めた比が所定値未満の物体が複数あるか否かで判断する。ここでの判断が否定されるとステップS84に移行し、肯定されるとステップS88に移行する。 In step S87, it is determined whether or not there are a plurality of low reflection objects. Specifically, it is determined whether or not there are a plurality of objects whose ratio obtained in step S82.5 is less than a predetermined value. If the determination here is denied, the process proceeds to step S84, and if affirmed, the process proceeds to step S88.
ステップS88では、各低反射物体までの距離を取得する。具体的には、ステップS82における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S88, the distance to each low-reflection object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S82.
次のステップS89では、最近接低反射物体(ライダ20Aに最も近い低反射物体)までの距離が所定距離(例えば200m)未満か否かを判断する。ここでの判断が肯定されるとステップS90に移行し、否定されるとステップS93に移行する。
In the next step S89, it is determined whether or not the distance to the closest low-reflection object (the low-reflection object closest to the
ステップS90では、最近接低反射物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と最近接低反射物体の位置情報を送る。このとき、注目領域設定部23cは、最近接低反射物体を囲む該最近接低反射物体よりも幾分大きい領域を注目領域として設定する。
In step S90, the region where the closest low-reflection object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the closest low reflection object are sent to the attention
次のステップS91では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。
In the next step S91, the "SN ratio maintenance / improvement process" is carried out. Here, for example, any of the above-mentioned SN ratio maintenance /
次のステップS92では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。 In the next step S92, the distance of the object of interest (the object existing in the region of interest) to each pixel region is calculated. The total of the calculated distances is the distance image of the object of interest.
次のステップS93では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS93での判断が肯定されるとフローは終了し、否定されるとステップS82に戻る。
In the next step S93, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the
以上の説明した物体検出処理5では、特にライダ20Aの射程距離にある最近接低反射物体に対してSN比を上げながら重点的に測定を行うことで、該最近接低反射物体の位置、大きさ、形状等の情報を精度良く検出できる。
In the
《物体検出処理6》
物体検出処理5を、図19を参照して説明する。図19のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理6は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 6 >>
The
最初のステップS101では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。
In the first step S101, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting
次のステップS102では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS102での判断が肯定されるとステップS102.5に移行し、否定されると同じ判断を再び行う。
In the next step S102, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the
ステップS102.5では、物体が存在する領域を特定する。具体的には、ステップS102における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を求める。 In step S102.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S102 are specified. That is, the position information of the object is obtained.
次のステップS103では、低反射物体があるか否かを判断する。ここでは、ステップS102における検出信号の元となる受光信号の信号レベル(受光量)を取得し、該信号レベルの、ステップS102.5で求めた物体の位置情報から得られる該物体までの距離に対する比が所定値未満の場合に、該物体を低反射物体と見做す。ステップS103での判断が否定されるとステップS104に移行し、肯定されるとステップS107に移行する。 In the next step S103, it is determined whether or not there is a low reflection object. Here, the signal level (light receiving amount) of the received light signal that is the source of the detection signal in step S102 is acquired, and the distance to the object obtained from the position information of the object obtained in step S102.5 of the signal level is relative to the distance to the object. When the ratio is less than a predetermined value, the object is regarded as a low reflection object. If the determination in step S103 is denied, the process proceeds to step S104, and if affirmed, the process proceeds to step S107.
ステップS104では、物体までの距離を取得する。具体的には、ステップS102における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S104, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S102 is acquired.
次のステップS105では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS106に移行し、否定されるとステップS113に移行する。 In the next step S105, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the determination here is affirmed, the process proceeds to step S106, and if denied, the process proceeds to step S113.
次のステップS106では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS106が実行されると、ステップS111に移行する。
In the next step S106, the region where the object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention
ステップS107では、低反射物体が複数か否かを判断する。具体的には、ステップS103で求めた比が所定値未満の物体が複数あるか否かで判断する。ここでの判断が否定されるとステップS104に移行し、肯定されるとステップS108に移行する。 In step S107, it is determined whether or not there are a plurality of low reflection objects. Specifically, it is determined whether or not there are a plurality of objects whose ratio obtained in step S103 is less than a predetermined value. If the determination here is denied, the process proceeds to step S104, and if the determination is affirmed, the process proceeds to step S108.
ステップS108では、各低反射物体までの距離を取得する。具体的には、ステップS102における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S108, the distance to each low-reflection object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S102 is acquired.
次のステップS109では、距離が所定距離(例えば100m)未満の低反射物体があるか否かを判断する。ここでの判断が肯定されるとステップS110に移行し、否定されるとステップS113に移行する。 In the next step S109, it is determined whether or not there is a low reflection object whose distance is less than a predetermined distance (for example, 100 m). If the determination here is affirmed, the process proceeds to step S110, and if denied, the process proceeds to step S113.
ステップS110では、距離が所定距離未満の低反射物体が存在する全ての領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と低反射物体の位置情報を送る。このとき、注目領域設定部23cは、低反射物体を囲む該低反射物体よりも幾分大きい領域を注目領域として設定する。
In step S110, all regions in which a low-reflection object having a distance of less than a predetermined distance exists are set as regions of interest. Specifically, the attention area setting request and the position information of the low reflection object are sent to the attention
次のステップS111では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。
In the next step S111, the "SN ratio maintenance / improvement process" is carried out. Here, for example, any of the above-mentioned SN ratio maintenance /
次のステップS112では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。 In the next step S112, the distance of the object of interest (the object existing in the region of interest) to each pixel region is calculated. The total of the calculated distances is the distance image of the object of interest.
次のステップS113では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS113での判断が肯定されるとフローは終了し、否定されるとステップS102に戻る。
In the next step S113, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the
以上説明した物体検出処理6では、特にライダ20Aの射程範囲にある全ての低反射物体に対してSN比を上げながら重点的に測定を行うことで、該低反射物体の位置、大きさ、形状等の情報を精度良く検出できる。
In the object detection process 6 described above, the position, size, and shape of the low-reflection object are measured by focusing on all the low-reflection objects within the range of the
なお、上記物体検出処理4において「移動物体」を「低反射物体」に置き換えた物体検出処理4´を行っても良い。 In the object detection process 4, the object detection process 4'in which the "moving object" is replaced with the "low reflection object" may be performed.
また、上記各物体検出処理において、2番目のステップ(物体があるか否かを判断するステップ)での判断が否定されたときに、投光範囲全域に対して「SN比維持向上処理」を行うステップを追加し、該ステップの後、2番目のステップに戻しても良い。この場合、SN比を向上させないと検出が困難な遠距離物体、低反射物体、小物体なども検出することが可能となる。 Further, in each of the above object detection processes, when the determination in the second step (the step of determining whether or not there is an object) is denied, the "SN ratio maintenance / improvement process" is performed for the entire projection range. You may add a step to perform and then return to the second step after that step. In this case, it is possible to detect long-distance objects, low-reflection objects, small objects, etc., which are difficult to detect unless the SN ratio is improved.
また、上記各物体検出処理において、注目領域を設定するための一連の処理に並行して、非注目領域への投光により非注目領域を粗く、もしくはフレームレートを下げて検出を行うことが好ましい。そして、ある非注目領域で検出対象の特定の物体が検出されたときに、該非注目領域を注目領域に切り替えて検出を行うことが好ましい。 Further, in each of the above object detection processes, it is preferable to perform detection by coarsening the non-attention region or lowering the frame rate by projecting light onto the non-attention region in parallel with a series of processes for setting the attention region. .. Then, when a specific object to be detected is detected in a certain non-attention region, it is preferable to switch the non-attention region to the attention region for detection.
[第2実施形態]
図20(a)及び図20(b)には、第2実施形態の物体検出装置200の一例としてのライダ20Bの投光系及び受光系の構成が示されている。
[Second Embodiment]
20 (a) and 20 (b) show the configurations of the light emitting system and the light receiving system of the
ライダ20Bは、投光系が、光源からの光を有効走査領域に向けて偏向走査する走査ミラーを有している点が上記第1実施形態のライダ20Aと異なる。すなわち、第2実施形態のライダ20Bは、走査型のライダである。
The
ここでは、この走査ミラーにMEMS機構でミラー部を駆動するMEMSミラーを用いているが、モータによって多面鏡を回転させるポリゴンミラー、その他ガルバノミラーなど種々の変形が可能である。 Here, a MEMS mirror for driving the mirror portion by a MEMS mechanism is used for this scanning mirror, but various modifications such as a polygon mirror in which a multifaceted mirror is rotated by a motor and other galvano mirrors are possible.
第2実施形態では、MEMSミラーによって走査される光(走査光)を検出する光検出部(例えばフォトダイオードやフォトトランジスタ)が有効走査領域を含む投光範囲(検出領域)に設けられ、測定制御部は、光検出部の出力に基づいて走査光の位置(走査位置)を検出し、該走査位置に基づいて投光系の光源を制御する。なお、MEMSミラーにミラー部の振れ角を検知する振れ角検知部が設けられる場合には、測定制御部は該振れ角検知部の出力に基づいて走査位置を検出しても良い。 In the second embodiment, a photodetector (for example, a photodiode or a phototransistor) for detecting the light (scanning light) scanned by the MEMS mirror is provided in a light projection range (detection region) including an effective scanning region, and measurement control is performed. The unit detects the position of the scanning light (scanning position) based on the output of the light detection unit, and controls the light source of the projection system based on the scanning position. When the MEMS mirror is provided with a runout angle detection unit for detecting the runout angle of the mirror unit, the measurement control unit may detect the scanning position based on the output of the runout angle detection unit.
また、走査する構成としては、投光系、受光系をZ軸方向に重ねた構成にしており、ともに図20のようにZ軸方向から見たときに同軸で走査ミラーに入射して走査することにより、投光系で光を投射している領域と、受光系で光を取り込む領域を一致させ、安定した物体検出を実現している。 Further, the scanning configuration is such that the light emitting system and the light receiving system are overlapped in the Z-axis direction, and both are coaxially incident on the scanning mirror and scanned when viewed from the Z-axis direction as shown in FIG. As a result, the region in which the light is projected by the light projecting system and the region in which the light is taken in by the light receiving system are matched, and stable object detection is realized.
第2実施形態の変形例として、投光系においてのみ走査ミラーで走査し、受光系は走査ミラーを介さず、上記第1実施形態のように、有効走査領域全体を結像光学系によって観察する構成もとりうる。 As a modification of the second embodiment, the scanning mirror scans only in the light projecting system, and the light receiving system observes the entire effective scanning region by the imaging optical system as in the first embodiment without using the scanning mirror. It can also be configured.
この場合、受光系において走査ミラーの設置スペースが不要となり、投光系において走査ミラーのサイズを小さくすることによって、高速駆動や広角駆動とすることも可能である。 In this case, the space for installing the scanning mirror is not required in the light receiving system, and by reducing the size of the scanning mirror in the light projecting system, high-speed drive or wide-angle drive can be achieved.
図20では、座標軸は、有効走査領域がYZ平面となるようにとっており、走査ミラーは、図20では図示されていないが、Y軸方向とZ軸方向の2軸方向に独立して走査可能な構成とされている。走査ミラーをポリゴンミラーなどで代用する場合は、複数の反射面を回転軸に対してそれぞれ異なった角度で傾けて配置して、走査・検出する領域をZ軸方向に切り替えることも可能である。 In FIG. 20, the coordinate axes are set so that the effective scanning area is in the YZ plane, and the scanning mirror is not shown in FIG. 20, but can be scanned independently in the two axial directions of the Y-axis direction and the Z-axis direction. It is configured. When the scanning mirror is replaced with a polygon mirror or the like, it is also possible to arrange a plurality of reflecting surfaces at different angles with respect to the rotation axis and switch the scanning / detecting area in the Z-axis direction.
第2実施形態における、注目領域への光の照射方法を以下に説明する。 The method of irradiating the region of interest with light in the second embodiment will be described below.
上記第1実施形態と同様に、図6のような物体検出結果(距離画像)に基づき、物体Aが存在する領域を注目領域とする場合、走査手段としてのMEMSミラーの駆動を非共振モードに切り替えて、注目領域に光を偏向させる角度のみに限定してミラーを駆動させる。 Similar to the first embodiment, when the region where the object A exists is set as the region of interest based on the object detection result (distance image) as shown in FIG. 6, the drive of the MEMS mirror as the scanning means is set to the non-resonant mode. By switching, the mirror is driven only at an angle that deflects the light to the region of interest.
注目領域までの距離について精度良く検知したい場合は、注目領域を繰返し走査して信号を取得することによって、SN比を増加させることができる。物体Aを回避するように移動体を制御する場合は、距離情報よりも物体Aのサイズ、形状の輪郭の方をより精度良く検知して、移動可能領域を判定する必要があるため、MEMSミラーの駆動を物体Aの輪郭部分を照射するようさらに絞って、より高速にSN比を向上させても良い。 When it is desired to accurately detect the distance to the region of interest, the SN ratio can be increased by repeatedly scanning the region of interest to acquire a signal. When controlling a moving body so as to avoid the object A, it is necessary to detect the size and shape contour of the object A more accurately than the distance information to determine the movable area. Therefore, the MEMS mirror The drive of the object A may be further reduced so as to irradiate the contour portion of the object A, and the SN ratio may be improved at a higher speed.
また、非共振モードに切り替えず、共振モードで有効走査領域全体を走査するモードのままで、注目領域を走査するときの光源の発光周期を短くしたり、発光デューティを大きくしたり、光源への駆動電流の振幅を増加させて発光パルスのピーク光量を増大させることで受光信号のSN比を上げても良い。この方法は、ポリゴンミラーなど、ある領域に限定して偏向させるような駆動ができない光偏向器の場合でも有効である。 In addition, without switching to the non-resonant mode, the light emission cycle of the light source when scanning the region of interest can be shortened, the emission duty can be increased, or the light source can be used while the mode remains in which the entire effective scanning region is scanned in the resonance mode. The SN ratio of the received signal may be increased by increasing the amplitude of the drive current to increase the peak light amount of the light emission pulse. This method is also effective in the case of an optical deflector that cannot be driven to deflect only a certain area, such as a polygon mirror.
また、光源の駆動条件の制約などにより、光源の発光周期や発光デューティを変えることができない場合は、前述のようにMEMSミラーを非共振モードとし、注目領域を照射しても良いし、走査速度を遅くすることでも実質的に注目領域への投光回数(照射回数)を増やすことが可能となる。 If the light emission cycle and light emission duty of the light source cannot be changed due to restrictions on the driving conditions of the light source, the MEMS mirror may be set to the non-resonant mode as described above to irradiate the region of interest, or the scanning speed. It is also possible to substantially increase the number of times of light projection (the number of times of irradiation) to the region of interest by slowing down.
以上説明した第2実施形態のライダ20Bを用いて、前述した閾値設定処理、SN比維持向上処理1〜3、物体検出処理1〜6を行うこともできる。
Using the
[第3実施形態]
図21(a)及び図21(b)には、第3実施形態のライダ300aとステレオカメラ300bを備える物体検出装置300が車両本体(移動体)に搭載される車両1´(移動体装置)の側面図及び正面図がそれぞれ示されている。
[Third Embodiment]
In FIGS. 21 (a) and 21 (b), the vehicle 1'(mobile body device) in which the
ライダ300aは、上記第1実施形態のライダ20A又は第2実施形態のライダ20Bと同様の構成を有しており、例えば車両1´の前側のナンバープレート近傍に取り付けられている。なお、ライダ300aを例えば車両1´内に取り付けても良いが、その場合、ライダ300aからの投射光の一部がフロントガラスで反射することが懸念される。
The
ステレオカメラ300bは、例えば車両1´内のバックミラー近傍に取り付けられおり、撮像部1(左眼)と撮像部2(右眼)の撮像結果から得られる視差画像により検出領域の距離情報を検出する。なお、ステレオカメラ300bを車両1´外に取り付けても良いが、その場合、ステレオカメラ300bのレンズが汚れることが懸念される。
The
図22には、ライダ300aの投光範囲とステレオカメラ300bの撮像範囲が示されている。
FIG. 22 shows the projection range of the
図22に示されるように、撮像部1の撮像範囲(左眼撮像範囲)と撮像部2の撮像範囲(右眼撮像範囲)は、オーバーラップ領域(重なり部分)を有し、そのオーバーラップ領域にライダ300aの投光範囲が含まれている。なお、該オーバーラップ領域が投光範囲に一致又は投光範囲に含まれても良い。
As shown in FIG. 22, the imaging range of the imaging unit 1 (left eye imaging range) and the imaging range of the imaging unit 2 (right eye imaging range) have an overlapping region (overlapping portion), and the overlapping region thereof. The light projection range of the
第3実施形態では、注目領域を設定するために、ステレオカメラ300bの撮像結果を用いる。
In the third embodiment, the imaging result of the
一般に、ステレオカメラは、ライダに比べて、角度分解能を高くしやすく、より小さい物体などへの検知に優れるが、遠方になればなるほど距離分解能を高めることが難しく、物体までの距離を精度よく検出できない。 In general, a stereo camera is easier to increase the angular resolution than a rider and is excellent in detecting smaller objects, but it is difficult to increase the distance resolution as the distance increases, and the distance to an object can be detected accurately. Can not.
そこで、ステレオカメラ300bを用いて投光範囲全域における物体の有無を検出し、注目領域を設定した後(注目モードに移行した後)、ライダ300aによって注目領域のSN比を上げながら物体までの距離の検出を行うことにより、非注目モードよりも、遠距離物体や低反射物体に関する情報を高精度に検出することができる。
Therefore, after detecting the presence or absence of an object in the entire projection range using the
なお、上記第3実施形態では、ライダとステレオカメラを組み合わせる例を説明したが、ライダと単眼カメラを組み合わせても同様の効果が得られる。単眼カメラの場合、例えば光学フィルタを介して撮像することにより画素毎にボケやズレを生じさせ、そのボケ具合やズレ具合によって画素毎の被写体までの距離情報を得る。また、ライダとその他のセンシングデバイスとの組み合わせることも可能である。ミリ波レーダに関しては、ライダに比べて、雨や霧のときの検出信頼性、つまり耐候性が優れるが、検出領域の広角化と角度分解能の向上の両立が難しい。このため、悪天候時のおおまかな物体検出をミリ波レーダで行って注目領域を判断した後、ライダによって注目領域のSN比を上げながら物体検出を行うことにより、非注目モードに比べてより悪天候時での高精度な物体検出を実現できる。 Although the example of combining the rider and the stereo camera has been described in the third embodiment, the same effect can be obtained by combining the rider and the monocular camera. In the case of a monocular camera, for example, by taking an image through an optical filter, blurring or deviation is caused for each pixel, and distance information to the subject for each pixel is obtained depending on the degree of blurring or deviation. It is also possible to combine the rider with other sensing devices. Compared to lidar, millimeter-wave radar has excellent detection reliability in rain and fog, that is, weather resistance, but it is difficult to achieve both wide-angle detection area and improved angular resolution. For this reason, after roughly detecting an object in bad weather with a millimeter-wave radar to determine the region of interest, the lidar increases the SN ratio of the region of interest while detecting the object, which makes it more difficult in bad weather than in the non-attention mode. Highly accurate object detection can be realized.
また、上記第3実施形態の物体検出装置300では、ライダ300aとステレオカメラ300bを別体に構成しているが、図23に示されるようにライダ300aとステレオカメラ300bを一体的に構成し、車両外のナンバープレート近傍や車両内のバックミラー近傍に取り付けても良い。
Further, in the
以上説明した第3実施形態の物体検出装置300を用いて、前述した閾値設定処理、SN比維持向上処理1〜3、物体検出処理1〜6を行うこともできる。
Using the
[第4実施形態]
図23に示される一体的に構成されたライダ300aとステレオカメラ300bを備える第4実施形態の物体検出装置400について説明する。図24は、物体検出装置400の外観構成及び取り付け例を示す図である。
[Fourth Embodiment]
The
図24の上部(外観構成)に示すように、物体検出装置400は、周囲環境を3次元情報として取得するためのセンサ装置(3次元センサ)として、ステレオカメラ110と、ライダ(レーザレーダ)120とを備える。ステレオカメラ110は、単眼カメラ部111(第1撮像系)と単眼カメラ部112(第2撮像系)とを備え、ライダ120は、単眼カメラ部111と単眼カメラ部112との間に配置される。
As shown in the upper part (appearance configuration) of FIG. 24, the
単眼カメラ部111、112は、同期をとりながら所定のフレーム周期でそれぞれが撮影を行い、撮影画像を生成する。
The
ライダ120は、レーザ光を照射し、その反射光を受光することで、レーザ光の照射位置(オブジェクト)までの距離を測定する。
The
図24の下部(取り付け例)に示すように、物体検出装置400は、例えば、車両140のフロントウィンドウの内側中央位置に取り付けられる。このとき、ステレオカメラ110及びライダ120は、いずれも車両140の前方方向に向かって取り付けられる。つまり、車両140において、物体検出装置400は、ステレオカメラ110の撮影方向と、ライダ120のレーザ光の出射方向とが、同じ方向になるように取り付けられる。
As shown in the lower part (mounting example) of FIG. 24, the
《物体検出装置400のハードウェア構成》
次に、物体検出装置400のハードウェア構成の一例について図25を参照して説明する。
<< Hardware configuration of
Next, an example of the hardware configuration of the
図25に示されるように、物体検出装置400は、カメラステイ201と制御基板収納部202とを有する。
As shown in FIG. 25, the
カメラステイ201には、単眼カメラ部111、112とライダ120とが一体的に取り付けられている。これにより、物体検出装置400の小型化及び低コスト化を実現している。
The
制御基板収納部202には、レーザ信号処理部240から構成される信号処理系、距離計算処理部250、メモリ260、MPU(Micro Processing Unit)270から構成される制御装置(制御系)が収納されている。レーザ信号処理部240をライダ120とは別体に構成することで、ライダ120のサイズを小さくすることができる。これにより、第4実施形態では、単眼カメラ部111と単眼カメラ部112との間への、ライダ120の配置を実現している。
The control
なお、図25の例では、レーザ信号処理部240と距離計算処理部250とを、別の回路基板として構成しているが、レーザ信号処理部240と距離計算処理部250とは、共通の回路基板により構成してもよい。回路基板の枚数を削減することで、低コスト化を図ることが可能となるからである。
In the example of FIG. 25, the laser
続いて、カメラステイ201側の各部の詳細について説明する。図25に示されるように、単眼カメラ部111(第1撮像系)は、カメラレンズ211と、撮像素子212と、センサ基板213とを備える。カメラレンズ211を介して入射された外部の光は、撮像素子212において受光され、所定のフレーム周期で光電変換される。光電変換により得られた信号は、センサ基板213において処理され、1フレームごとの撮影画像が生成される。生成された撮影画像は、比較画像として、順次、距離計算処理部250に送信される。
Subsequently, the details of each part on the
なお、単眼カメラ部112(第2撮像系)も、単眼カメラ部111と同様の構成を有しており、同期制御信号に基づいて単眼カメラ部111と同期して生成された撮影画像は、基準画像として、順次、距離計算処理部250に送信される。
The monocular camera unit 112 (second imaging system) also has the same configuration as the
ライダ120は、光源駆動回路231と、レーザ光源232と、投光レンズ233とで構成される投光系を備える。光源駆動回路231は、レーザ信号処理部240からの同期制御信号に基づいて動作し、レーザ光源232に対して変調電流(光源発光信号)を印加する。これにより、レーザ光源232からレーザ光が出射される。レーザ光源232から出射されたレーザ光は、投光レンズ233を介して外部に出射される。
The
なお、第4実施形態では、レーザ光源232として、赤外半導体レーザダイオード(LD:Laser Diode)が用いられ、レーザ光として波長800nm〜950nmの近赤外光が出射されるものとする。また、レーザ光源232は、光源駆動回路231により印加された変調電流(光源発光信号)に応じて、パルス状の波形を有するレーザ光を周期的に出射するものとする。更に、レーザ光源232は、数ナノ秒から数百ナノ秒程度の短いパルス幅を有するパルス状のレーザ光を周期的に出射するものとする。
In the fourth embodiment, an infrared semiconductor laser diode (LD: Laser Diode) is used as the
レーザ光源232から出射されたパルス状のレーザ光は、投光レンズ233を介して投射ビームとして外部に出射された後、所定の照射範囲に照射される。照射範囲は、単眼カメラ部111、単眼カメラ部112の撮像範囲よりも広いことが好ましい。なお、照射範囲を広げる場合には、投光系や受光系の角度分解能を上げる必要があるため、レーザ光源としてマルチchの面発光レーザアレイを用いたり、フォトダイオードをアレイ状に多数敷き詰めることで受光エリアが多数設定可能な受光素子を用いたりすることが好ましい。
The pulsed laser beam emitted from the
ライダ120は、更に、受光レンズ234と、受光素子235と、受光信号増幅回路236とで構成される受光系を備える。所定のオブジェクトに照射されたレーザ光は、該オブジェクトにて散乱する。そして、ライダ120から出射されたレーザ光と同じ光路をたどって反射してくる光成分が、反射光として、受光レンズ234を介して受光素子235に導かれる。
The
第4実施形態では、受光素子235として、シリコンPINフォトダイオードやアバランシェフォトダイオードが用いられる。受光素子235は、反射光を光電変換することでレーザ受光信号を生成し、受光信号増幅回路236は、生成されたレーザ受光信号を増幅した後、レーザ信号処理部240に送信する。
In the fourth embodiment, a silicon PIN photodiode or an avalanche photodiode is used as the light receiving element 235. The light receiving element 235 generates a laser light receiving signal by photoelectrically converting the reflected light, and the light receiving signal amplification circuit 236 amplifies the generated laser light receiving signal and then transmits the generated laser light receiving signal to the laser
続いて、制御基板収納部202側の各部の詳細について説明する。レーザ信号処理部240は、ライダ120より送信されたレーザ受光信号に基づいて、平均化/積算処理部及び二値化処理部を含む信号処理系である。レーザ信号処理部240は、処理後の信号を検出信号として距離計算処理部250に送信する。
Subsequently, the details of each part on the control
距離計算処理部250は、例えば、FPGA(Field-Programmable gate array)や、ASIC(Application Specific Integrated Circuit)等の専用の集積回路により構成される。距離計算処理部250は、単眼カメラ部111、112及びレーザ信号処理部240に対して、撮影タイミング及びレーザ光の投受光タイミングを制御するための同期制御信号を出力する。なお、距離計算処理部250をCPU、ROM、RAM等で構成された情報処理基盤によって構成してもよい。
The distance
距離計算処理部250は、単眼カメラ部111より送信された比較画像、単眼カメラ部112より送信された基準画像をもとに視差画像を生成する。視差画像の生成方法は、公知のマッチング処理技術を用いることが可能であり、例えば、SSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)等のマッチング方法を用いることができる。また、距離計算処理部250は、後述のMPU270によって解析された視差画像のクラスタ情報から、注目領域を設定し、レーザ信号処理部240に同期制御信号として送信し、レーザ光源およびレーザ信号処理部240の制御を行う。また、距離計算処理部250は、レーザ信号処理部240より送信された検出信号に基づいて、距離情報を生成する。距離計算処理部250は、生成した視差画像、距離情報をメモリ260に格納する。なお、レーザ信号処理部240からの検出信号に基づく距離の算出方法は、第1実施形態と同様である。
The distance
メモリ260は、距離計算処理部250にて生成された視差画像、距離情報を格納する。また、メモリ260は、距離計算処理部250及びMPU270が各種処理を実行する際のワークエリアを提供する。
The
MPU270は、制御基板収納部202に収納された各部を制御するとともに、メモリ260に格納された視差画像、距離情報を解析する解析処理を行う。解析処理の一つとして、クラスタリング処理と物体検出処理を含むものがある。クラスタリング処理は、例えば、視差画像の視差値が近い画素を一つのクラスタとして連結し、視差画素のクラスタ分けを行う処理である。なお、視差画像の各画素の視差を実空間の単位に置き換え、三次元情報として変換処理をした後にクラスタリング処理を行ってもよい。クラスタリング処理により算出されたクラスタ情報には、各クラスタとして存在する物体のサイズ情報や位置情報、色情報(RGB情報)が含まれる。さらに、複数フレームのクラスタに用いることで各クラスタの移動情報(速度情報や移動ベクトル情報を含む移動に関する情報)をクラスタ情報に含めてもよい。MPU270は、距離画像に対してもクラスタリング処理を行い、視差画像および距離情報から算出されたクラスタ情報を用いて物体検出処理を行う。視差画像や距離画像から物体を検出するクラスタリング処理は、上記以外の方法でも良く、例えば、K−MEANS法、CLARANS法、BIRCH法、CURE法などのクラスタリング方法を使用しても良い。
The
《制御装置のソフトウェア構成》
次に、物体検出装置400の制御装置(制御系)の機能について説明する。図26は、物体検出装置400の制御装置の機能の一例を示す機能ブロック図である。
<< Software configuration of control device >>
Next, the function of the control device (control system) of the
制御装置の機能は、図26に示されるように、測定制御部、注目領域設定部、視差画像生成部、解析処理部、時間計測部、距離演算部で構成される。それぞれの機能は、距離計算処理部(FPGA)250、メモリ260、MPU270により実現される。測定制御部は、監視制御装置の制御にしたがって起動し、第1撮像系、第2撮像系、投光系、受光系、信号処理系のそれぞれから信号を受信するとともに、それぞれを制御する。また、注目領域設定部により設定された注目領域に応じて、受光系、投光系、信号処理系のいずれか少なくとも1つに対して、注目領域の検出精度向上処理(例えば、注目領域に対して投光光量を上げる、注目領域に対して投光周期を短くする、注目領域に対して受光信号の積算回数を増やす、注目領域に対してフレームレートを下げる)を行う。視差画像生成部は、第1撮像系、第2撮像系から取得した基準画像および比較画像から視差画像を生成する。解析処理部は、視差画像生成部が生成した視差画像に対してクラスタリング処理を行い、クラスタ情報を注目領域設定部に送信する。さらに、注目領域に対する検出精度向上処理後の信号処理系から取得した距離情報およびクラスタ情報から、物体検出処理を行う。注目領域設定部は、解析処理部から取得したクラスタ情報をもとに注目領域を設定する。時間計測部と距離演算部の機能は、第1実施形態で説明したのと概ね同様である。第4実施形態では、距離演算部が測定制御部にのみ距離データを送り、測定制御部が、受け取った距離データを監視制御装置に送る点が第1実施形態と異なる。
As shown in FIG. 26, the function of the control device includes a measurement control unit, a region of interest setting unit, a parallax image generation unit, an analysis processing unit, a time measurement unit, and a distance calculation unit. Each function is realized by the distance calculation processing unit (FPGA) 250, the
《制御装置のハードウェア構成》
次に、物体検出装置400の制御装置(制御系)のハードウェア構成について簡単に説明する。図27は、物体検出装置400の制御装置のハードウェア構成の一例を示すブロック図である。
<< Hardware configuration of control device >>
Next, the hardware configuration of the control device (control system) of the
物体検出装置400の制御装置は、図27に示されるように、CPU、RAM、ROM、FPGA、外部I/Fにより実現される。詳述すると、図26の視差画像生成部、時間計測部及び距離演算部はFPGAにより実現され、図26の測定制御部、注目領域設定部及び解析処理部はCPUにより実現される。
As shown in FIG. 27, the control device of the
《物体検出処理7》
第4実施形態の物体検出処理の一例である物体検出処理7について図28を参照して説明する。
図28のフローチャートは、測定制御部によって実行される処理アルゴリズムに基づいている。物体検出処理7は、監視制御装置から測定開始要求を受けたときに開始される。監視制御装置は、例えば物体検出装置が搭載された車両の電気系統がONになったときに、物体検出装置に測定開始要求を送る。
<< Object detection process 7 >>
The object detection process 7, which is an example of the object detection process of the fourth embodiment, will be described with reference to FIG. 28.
The flowchart of FIG. 28 is based on a processing algorithm executed by the measurement control unit. The object detection process 7 is started when a measurement start request is received from the monitoring control device. The monitoring control device sends a measurement start request to the object detection device, for example, when the electric system of the vehicle equipped with the object detection device is turned on.
最初のステップS201では、第1撮像系により基準画像を撮像し、第1撮像系と同期した第2撮像系により比較画像を撮像する。 In the first step S201, the reference image is captured by the first imaging system, and the comparative image is captured by the second imaging system synchronized with the first imaging system.
次のステップS202では、視差画像生成部が基準画像と比較画像に対してマッチング処理を行い、視差を算出し、視差画像を生成する。 In the next step S202, the parallax image generation unit performs matching processing on the reference image and the comparison image, calculates the parallax, and generates the parallax image.
ステップS203では、解析処理部がクラスタリング処理を行う。具体的には、視差画像内の視差をクラスタ分けし、各クラスタのサイズ情報、位置情報、移動情報を含むクラスタ情報を生成し、注目領域設定部に出力する。 In step S203, the analysis processing unit performs a clustering process. Specifically, the parallax in the parallax image is divided into clusters, cluster information including size information, position information, and movement information of each cluster is generated, and output to the attention area setting unit.
ステップS204では、測定制御部が、解析処理部から出力されたクラスタ情報が存在するか否かを判断する。クラスタ情報が存在しない場合はステップS207に移行し、クラスタ情報が存在する場合はステップS205に移行する。 In step S204, the measurement control unit determines whether or not the cluster information output from the analysis processing unit exists. If the cluster information does not exist, the process proceeds to step S207, and if the cluster information exists, the process proceeds to step S205.
ステップS205では、注目領域設定部がクラスタ情報に基づいて注目領域を設定する。 In step S205, the attention area setting unit sets the attention area based on the cluster information.
ステップS206では、測定制御部が、受光系、投光系、信号処理系のいずれか少なくとも1つに対して、注目領域の検出精度が向上するようにライダを設定する。例えば、注目領域に対して投光光量を上げる、注目領域に対して投光周期を短くする、注目領域に対して受光信号の積算回数を増やす、注目領域に対してフレームレートを下げる等の設定を行う。 In step S206, the measurement control unit sets the rider for at least one of the light receiving system, the light projecting system, and the signal processing system so that the detection accuracy of the region of interest is improved. For example, settings such as increasing the amount of projected light for the region of interest, shortening the projecting cycle for the region of interest, increasing the number of times the received signal is integrated for the region of interest, and decreasing the frame rate for the region of interest. I do.
ステップS207では、測定制御部の制御にしたがってライダ(投光系、受光系、信号処理系)による測距を行い、距離情報を取得する。 In step S207, distance measurement is performed by a rider (light projection system, light receiving system, signal processing system) according to the control of the measurement control unit, and distance information is acquired.
ステップS208では、クラスタ情報および距離情報から、検出領域に存在する物体までの距離を測定する。なお、クラスタ情報および距離情報のうち、所定の物体までの距離が異なる場合は、距離情報を優先する。 In step S208, the distance to the object existing in the detection area is measured from the cluster information and the distance information. If the distance to a predetermined object is different among the cluster information and the distance information, the distance information has priority.
ステップS209では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置から測定終了要求を受けているときに肯定され、受けていないときに否定される。 In step S209, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device, and is denied when the measurement end request is not received.
以上の物体検出処理により、クラスタ情報を用いて注目領域を設定し、注目領域におけるライダの測距精度を向上させる処理を行うことで、注目したクラスタに対して高精度に測距を行うことができる。例えば、クラスタ情報のうち、最接近しているクラスタの存在している領域に対してライダの測距精度が高くなるように測定を行うことで、衝突可能性が高い最接近物体領域に対して高精度のライダ測距を行うことが可能となる。なお、第4実施形態では、第1実施形態と同様の非走査型のライダを例にとって説明したが、第2実施形態と同様の走査型のライダを採用しても良い。 By the above object detection process, the region of interest is set using the cluster information, and the distance measurement accuracy of the rider in the region of interest is improved, so that the cluster of interest can be measured with high accuracy. can. For example, in the cluster information, by measuring so that the distance measurement accuracy of the rider is high for the area where the closest cluster exists, the closest object area with a high possibility of collision can be measured. It is possible to perform high-precision rider distance measurement. In the fourth embodiment, the same non-scanning type rider as in the first embodiment has been described as an example, but the same scanning type rider as in the second embodiment may be adopted.
以上説明した第1〜第4実施形態の物体検出装置100、200、300、400は、第1の観点からすると、光源を含む投光系と、該投光系から投光され物体で反射された光を受光する、受光素子を有する光検出器を含む受光系と、光検出器の出力信号又は該出力信号に基づく信号が入力される信号処理系と、投光系の投光範囲内の少なくとも1つの領域を注目領域として設定し、該注目領域に対する投光系の投光条件及び信号処理系の処理条件の少なくとも一方を、注目領域へ投光するときと非注目領域(投光範囲における注目領域以外の領域)に投光するときとで異ならせる制御系と、を備える物体検出装置である。
From the first viewpoint, the
この場合、例えば、制御系が、投光条件及び処理条件の少なくとも一方を、注目領域へ投光するときの方が非注目領域へ投光するときよりも物体に関する情報を検出するのに有利な条件に設定することにより、注目領域に存在する物体(特定の物体)に関する情報を、非注目領域に存在する物体に関する情報よりも精度良く検出することができる。 In this case, for example, it is more advantageous for the control system to detect information about the object when at least one of the light projection condition and the processing condition is projected to the attention region than when the light is projected to the non-focus region. By setting the conditions, information about an object existing in the region of interest (a specific object) can be detected more accurately than information about an object existing in the non-region of interest.
この結果、特定の物体に関する情報(物体情報)の検出精度を向上できる。 As a result, the detection accuracy of information (object information) related to a specific object can be improved.
また、第1〜第4実施形態の物体検出装置100、200、300、400は、第2の観点からすると、光源を含む投光系と、該投光系から投光され物体で反射された光を受光する、受光素子を有する光検出器を含む受光系と、光検出器の出力信号又は該出力信号に基づく信号が入力される二値化処理部(信号検出部)を含む信号処理系と、投光系の投光範囲内の少なくとも1つの領域を注目領域として設定し、該注目領域への投光による光検出器の出力信号又は該出力信号に基づく信号が二値化処理部で二値化(検出)されるように投光系及び信号処理系の少なくとも一方を制御する制御系と、を備える物体検出装置である。
Further, from the second viewpoint, the
この場合、注目領域への投光による光検出器の出力信号(注目領域に存在する物体からの反射光に基づく信号)を高い精度で検出できる。 In this case, the output signal of the photodetector (the signal based on the reflected light from the object existing in the region of interest) due to the projection of the light onto the region of interest can be detected with high accuracy.
この結果、特定の物体に関する情報(物体情報)の検出精度を向上できる。 As a result, the detection accuracy of information (object information) related to a specific object can be improved.
すなわち、第1〜第4実施形態の物体検出装置100、200、300、400によれば、物体までの距離や、物体の移動の有無、物体の反射率、大きさ、形状等によらず、物体の有無、物体までの距離、物体の位置、物体の大きさ、物体の形状等の物体に関する情報を精度良く検出することが可能となる。特に、遠距離物体、低反射物体、小物体などは、光量のロスが大きく、従来は検出することが困難であったが、物体検出装置100、200、300によれば、確実に検出することが可能である。
That is, according to the
要するに、第1〜第4実施形態の物体検出装置100、200、300、400は、注目領域を決定後、システム的な制御によって、SN比を向上させ、これまで検出困難だった物体も検出可能とする。つまりは、より遠距離、より低反射、より小さな物体に関する情報を検出可能となる。
In short, the
また、制御系は、注目領域に対する投光光量が非注目領域に対する投光光量よりも大きくなるように投光系を制御しても良い。 Further, the control system may control the light projection system so that the amount of light projected on the region of interest is larger than the amount of light projected on the non-area of interest.
この場合、注目領域からの反射光の光量を増加させ、受光信号のSN比を向上させることが可能となる。 In this case, it is possible to increase the amount of reflected light from the region of interest and improve the SN ratio of the received signal.
また、制御系は、注目領域に対する投光周期が非注目領域に対する投光周期よりも短くなるように投光系制御しても良い。 Further, the control system may control the light projection system so that the light projection period for the attention region is shorter than the light projection period for the non-attention region.
この場合、注目領域からの反射光の1フレーム毎の受光回数を増やすことができ、受光信号のSN比を向上させることができる。 In this case, the number of times of receiving the reflected light from the region of interest for each frame can be increased, and the SN ratio of the received signal can be improved.
また、制御系は、投光系を制御して注目領域に対して連続して複数回の投光を行い、信号処理系は、複数回の投光による光検出器の複数の出力信号を平均化及び/又は積算し、得られた信号を二値化処理部に出力する平均化/積算処理部を更に含んでも良い。具体的には、光検出器が受光し光電変換した信号電荷を容量(コンデンサ)に蓄積し、1フレームを構成する際の、蓄積回数を増加させる。この際、注目領域において、フレームレートを下げても良いし、発光周波数を上げても良い(投光周期を短くしても良い)。 In addition, the control system controls the light projection system to continuously project light to the region of interest a plurality of times, and the signal processing system averages a plurality of output signals of the photodetector due to the multiple light projections. It may further include an averaging / integrating processing unit that converts and / or integrates and outputs the obtained signal to the binarization processing unit. Specifically, the signal charge received by the photodetector and photoelectrically converted is stored in a capacitance (capacitor) to increase the number of times of storage when forming one frame. At this time, in the region of interest, the frame rate may be lowered or the emission frequency may be raised (the photoperiod may be shortened).
この場合、注目領域に存在する物体からの信号光(反射光)を連続して複数回受光することにより、信号光レベルを向上させることができ、SN比の向上が可能となる。 In this case, the signal light level can be improved and the SN ratio can be improved by continuously receiving the signal light (reflected light) from the object existing in the region of interest a plurality of times.
また、二値化処理部に信号検出用の閾値thが設定され、制御系は、投光系から投光されていないときの光検出器の出力から外乱ノイズレベル(ノイズレベル)を取得し、該外乱ノイズレベルを基準に閾値thを設定する。 In addition, the threshold value th for signal detection is set in the binarization processing unit, and the control system acquires the disturbance noise level (noise level) from the output of the photodetector when the light is not projected from the light projection system. The threshold value th is set with reference to the disturbance noise level.
この場合、注目領域に存在する物体からの信号光(反射光)の信号レベルを外乱ノイズレベルよりも十分に大きくなるように制御することが可能となり、SN比の向上が可能となる。また、閾値が外乱ノイズレベルよりも大きく設定されることで、誤検出を防止できる。 In this case, it is possible to control the signal level of the signal light (reflected light) from the object existing in the region of interest so as to be sufficiently higher than the disturbance noise level, and it is possible to improve the SN ratio. Further, by setting the threshold value to be larger than the disturbance noise level, erroneous detection can be prevented.
なお、ノイズレベルを判別するために、例えば、光源を消灯している状態の受光信号レベルであるノイズレベルを保持しておき、光源を点灯している状態の受光信号レベルからノイズレベルを差し引いた後のレベルを信号光のレベルとし、これが基準値をクリアするように投光光量、投光周期、電荷蓄積時間を増やしてSN比を増加させても良い。もしくは、ノイズを差し引かなくとも、ノイズレベルが判別できていれば、ノイズレベルと信号光レベルを比較することができ、その比率、つまりSN比が所定の基準値を上回るように駆動してSN比を上げることが可能となる。 In order to determine the noise level, for example, the noise level, which is the received signal level when the light source is turned off, is held, and the noise level is subtracted from the received signal level when the light source is turned on. The latter level may be set as the signal light level, and the SN ratio may be increased by increasing the light source light amount, the light source period, and the charge accumulation time so that this level clears the reference value. Alternatively, even if the noise is not subtracted, if the noise level can be determined, the noise level and the signal light level can be compared, and the ratio, that is, the SN ratio is driven so as to exceed a predetermined reference value. It becomes possible to raise.
また、制御系は、投光範囲に物体が存在しないとき、投光範囲全域に対する投光系の投光条件及び信号処理系の処理条件を、注目領域に対する投光系の投光条件及び信号処理系の処理条件と同等にすることが好ましい。検出領域全域で物体が検出されない場合、つまり、近くに物体がない場合、急いで物体情報の検出を行う必要がないため、例えばフレームレートを落としてSN比を稼ぎ、より長距離、より低反射、より小さな物体の検出が可能となる。この結果、より長期的視野での周囲環境予測を可能となる。 In addition, when there is no object in the projection range, the control system sets the projection conditions and signal processing conditions of the projection system for the entire projection range, and the projection conditions and signal processing of the projection system for the region of interest. It is preferable to make it equivalent to the processing conditions of the system. When an object is not detected in the entire detection area, that is, when there is no object nearby, it is not necessary to detect the object information in a hurry. , It is possible to detect smaller objects. As a result, it becomes possible to predict the surrounding environment from a longer-term perspective.
また、制御系は、注目領域設定後、該注目領域にのみ投光しても良い。この場合、光源の長寿命化及び省電力化を図ることができる。 Further, the control system may project light only on the region of interest after setting the region of interest. In this case, the life of the light source can be extended and the power can be saved.
また、制御系は、投光系からの投光による信号処理系の出力に基づいて注目領域を設定することができる。具体的には、ライダ自身の前フレームの検出結果を利用して物体の有無、物体の位置情報、移動情報を求めて、注目領域を設定することができる。 Further, the control system can set the region of interest based on the output of the signal processing system by the light projection from the light projection system. Specifically, the region of interest can be set by obtaining the presence / absence of an object, the position information of the object, and the movement information by using the detection result of the previous frame of the rider itself.
この場合、他のセンシングデバイスを別途設けることなく、注目領域を設定できる。 In this case, the region of interest can be set without separately providing another sensing device.
また、第2実施形態の物体検出装置200では、投光系は、光源からの光を走査する走査手段を更に含み、制御系は、光源及び走査手段の少なくとも一方を制御する。
Further, in the
なお、走査手段としては、MEMSミラーやポリゴンミラーが想定される。MEMSミラーの場合は、注目領域のみを走査、もしくは、注目領域が一点のみであれば、その一点に光ビームが偏向される角度で静止させても良い。ポリゴンミラーの場合は、回転させ続ける間、注目領域を走査しているときのみ光源を点灯させることによって、光源の点灯時間を抑えて、光源の高寿命化をはかるとともに、注目領域のみ光量を上げたり蓄積時間を上げたりすることで注目領域のSN比を増加させることが可能となる。 As the scanning means, a MEMS mirror or a polygon mirror is assumed. In the case of the MEMS mirror, only the region of interest may be scanned, or if there is only one region of interest, the light beam may be stationary at an angle at which the light beam is deflected. In the case of a polygon mirror, by turning on the light source only when scanning the area of interest while continuing to rotate, the lighting time of the light source is suppressed, the life of the light source is extended, and the amount of light is increased only in the area of interest. It is possible to increase the SN ratio of the region of interest by increasing the accumulation time or the accumulation time.
また、光源の駆動条件を一定として、走査手段による注目領域の走査速度を非注目領域の走査速度より遅くしても良い。この場合、注目領域への光ビームの照射回数を増やすことができ、注目領域への光量密度を増加させて、受光信号のSN比を向上することが可能となる。 Further, the scanning speed of the region of interest by the scanning means may be slower than the scanning speed of the region of interest, while the driving conditions of the light source are constant. In this case, the number of times the light beam is irradiated to the region of interest can be increased, the density of light intensity to the region of interest can be increased, and the SN ratio of the received signal can be improved.
また、走査手段の動作条件を一定として、前記注目領域に対する光源の発光周期を短くしても良い。この場合、注目領域への光ビームの照射回数を増やすことができ、注目領域への光量密度を増加させて、受光信号のSN比を向上することが可能となる。 Further, the light emission cycle of the light source with respect to the region of interest may be shortened while the operating conditions of the scanning means are constant. In this case, the number of times the light beam is irradiated to the region of interest can be increased, the density of light intensity to the region of interest can be increased, and the SN ratio of the received signal can be improved.
また、第3実施形態の物体検出装置300は、投光範囲をセンシングするセンシング装置を更に備え、制御系は、センシング装置の出力に基づいて注目領域を設定する。
Further, the
この場合、物体検出装置300とは異なる特性を有するセンシング装置を用いることにより、注目領域をより精度良く設定することが可能となる。
In this case, by using a sensing device having characteristics different from that of the
センシング装置として、カメラ、ミリ波レーダ、赤外線センサなどが挙げられる。カメラに関しては、ライダに比べて、角度分解能が高くより小さい物体などへの検知に優れるが、距離分解能が低く物体までの距離を精度よく検出できない。このため、注目領域をより精度良くカメラで判断した後、ライダによって注目領域のSN比を上げながら物体検出を行うことにより、非注目状態に比べてより遠距離・高精度な物体検出を実現できる。ミリ波レーダに関しては、ライダに比べて、雨や霧のときの検出信頼性、つまり耐候性が優れるが、検出領域の広角化と角度分解能の向上の両立が難しい。このため、悪天候時のおおまかな物体検出をミリ波レーダで行って注目領域を判断した後、ライダによって注目領域のSN比を上げながら物体検出を行うことにより、非注目状態に比べてより悪天候時での高精度な物体検出を実現できる。赤外線センサは、ライダに比べて低コストであるが、検出距離が短く、精度も低い。このため、上述したシステムの廉価版として、コストアップを抑えつつ実現することができる。また、センシング装置の検出結果に加えて、ライダ自身の前フレーム以前の検出結果も加味して注目領域を設定しても良い。 Examples of the sensing device include a camera, a millimeter wave radar, and an infrared sensor. As for the camera, the angle resolution is higher and the detection of a smaller object is superior to that of the rider, but the distance resolution is low and the distance to the object cannot be detected accurately. Therefore, after the area of interest is determined more accurately by the camera, the object is detected while increasing the SN ratio of the area of interest by the rider, so that it is possible to realize object detection at a longer distance and with higher accuracy than in the non-attention state. .. Compared to lidar, millimeter-wave radar has excellent detection reliability in rain and fog, that is, weather resistance, but it is difficult to achieve both wide-angle detection area and improved angular resolution. For this reason, by performing rough object detection in bad weather with a millimeter-wave radar to determine the region of interest, and then detecting the object while increasing the SN ratio of the region of interest with the rider, it is possible to detect the object in worse weather than in the non-attention state. Highly accurate object detection can be realized. The infrared sensor is cheaper than the rider, but has a short detection distance and low accuracy. Therefore, it can be realized as a low-priced version of the above-mentioned system while suppressing the cost increase. Further, in addition to the detection result of the sensing device, the detection result before the previous frame of the rider itself may be taken into consideration to set the region of interest.
また、注目領域は、当該物体検出装置からの距離が所定距離(例えば200m)未満の物体(ライダの射程範囲にある物体)が存在する領域であっても良い。 Further, the region of interest may be an region in which an object (an object within the range of the rider) whose distance from the object detection device is less than a predetermined distance (for example, 200 m) exists.
すなわち、ライダの射程範囲から外れた物体は、重点的に検出する必要性に乏しいため、検出対象から除外しても良い。 That is, an object outside the range of the rider may be excluded from the detection target because it is not necessary to detect it intensively.
なお、減衰により受光量が弱くなりやすい遠距離の領域を注目領域として設定して遠距離の領域に対する検出精度を上げることで、遠距離に存在する物体の検出精度を上げることができる。このとき、遠距離の物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる位置情報を使用して判断することができる。そこで、ライダの射程範囲によっては(例えば射程範囲が200m以上のときは)、該ライダからの距離が200m以上の領域を注目領域として設定しても良い。 It is possible to improve the detection accuracy of an object existing at a long distance by setting a long-distance region where the amount of light received tends to be weakened due to attenuation as a region of interest and improving the detection accuracy for the long-distance region. At this time, it is possible to determine whether or not the object is a long-distance object by using, for example, the position information included in the cluster information acquired by the stereo camera. Therefore, depending on the range of the rider (for example, when the range is 200 m or more), a region having a distance of 200 m or more from the rider may be set as the region of interest.
また、注目領域は、投光範囲に存在する複数の物体のうち当該物体検出装置に最も近い物体が存在する領域であることが好ましい。 Further, the region of interest is preferably a region in which the object closest to the object detection device exists among the plurality of objects existing in the light projection range.
例えばロボット等の自律移動体や、安全運転支援システム(ADAS)において、最も検出を急がないといけないのは、移動体の最も近くにある物体である。この結果に基づいて、衝突を回避、または軽減する車体制御を行うため、最も近くの物体の3次元情報をより精度良く取得することが必要となる。そこで、注目領域を当該物体検出装置に最も近い物体が存在する領域に設定することで、最も近くの物体の三次元情報を精度良く取得し、車両の制御等による回避精度を上げることができる。このとき、最も近くの物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる位置情報を使用して判断することができる。 For example, in an autonomous moving body such as a robot or a safe driving support system (ADAS), the object that must be detected most urgently is the object closest to the moving body. Based on this result, in order to control the vehicle body to avoid or reduce the collision, it is necessary to acquire the three-dimensional information of the nearest object with higher accuracy. Therefore, by setting the region of interest to the region where the object closest to the object detection device exists, it is possible to accurately acquire the three-dimensional information of the nearest object and improve the avoidance accuracy by controlling the vehicle or the like. At this time, it is possible to determine whether or not the object is the closest object by using, for example, the position information included in the cluster information acquired by the stereo camera.
また、注目領域は、移動物体が存在する領域であることが好ましい。移動物体は静止物体に比べて相対位置変化の予測性が低く、衝突危険性が高いからである。このとき、移動物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる移動情報を使用して判断することができる。 Further, the region of interest is preferably a region in which a moving object exists. This is because moving objects have lower predictability of relative position changes than stationary objects and have a higher risk of collision. At this time, it can be determined whether or not the object is a moving object by using, for example, the moving information included in the cluster information acquired by the stereo camera.
また、注目領域は、投光範囲における複数の移動物体が存在する領域のうち当該物体検出装置への接近速度が最速の移動物体が存在する領域であることが好ましい。このような移動物体は、衝突危険性が特に高いからである。このとき、最速の移動物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる移動情報を使用して判断することができる。 Further, the region of interest is preferably a region in which a moving object having the fastest approach speed to the object detection device exists among the regions in which a plurality of moving objects exist in the light projection range. This is because such a moving object has a particularly high risk of collision. At this time, it can be determined whether or not it is the fastest moving object by using, for example, the moving information included in the cluster information acquired by the stereo camera.
また、注目領域は、低反射物体が存在する領域であることが好ましい。低反射物体は、検出漏れのリスクが高いからである。このとき、低反射物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる色情報を使用して判断することができる。 Further, the region of interest is preferably a region in which a low-reflection object exists. This is because low-reflection objects have a high risk of detection omission. At this time, it can be determined whether or not the object is a low-reflection object by using, for example, the color information included in the cluster information acquired by the stereo camera.
また、第1〜第4実施形態の物体検出装置100、200、300、400と、該物体検出装置が搭載される移動体と、を備える移動体装置によれば、衝突安全性に優れた移動装置を提供できる。
Further, according to the mobile device including the
なお、制御系は、注目領域への投光による光検出器の出力信号を検出するための閾値である第1の閾値と、注目領域以外の領域への投光による光検出器の出力信号を検出するための閾値である、第1の閾値よりも小さい第2の閾値を設定しても良い。この際、制御系は、注目領域への投光に関与する発光部と非注目領域への投光に関与する発光部を特定する情報を二値化処理部に送る必要がある。具体的には、各SN比維持向上処理の冒頭に「注目領域に対する閾値を上げる。」という処理を加えれば良い。 The control system sets the first threshold value, which is a threshold value for detecting the output signal of the light detector due to the projection of light onto the region of interest, and the output signal of the optical detector due to the projection of light onto the region other than the region of interest. A second threshold value smaller than the first threshold value, which is a threshold value for detection, may be set. At this time, the control system needs to send information for identifying the light emitting unit involved in the projection to the region of interest and the light emitting unit involved in the projection to the non-attention region to the binarization processing unit. Specifically, a process of "raising the threshold value for the region of interest" may be added at the beginning of each SN ratio maintenance / improvement process.
この場合、注目領域からの信号光の信号レベルを非注目領域からの信号光の信号レベルよりも確実に高くでき、注目領域に対するSN比を向上させることができる。 In this case, the signal level of the signal light from the attention region can be surely higher than the signal level of the signal light from the non-attention region, and the SN ratio with respect to the attention region can be improved.
また、物体検出装置における注目領域の設定方法は、上記各実施形態で説明した方法に限られない。要は、移動体の速度や周辺環境等に応じて注目すべき優先度の高い領域を注目領域として設定することが好ましい。 Further, the method of setting the region of interest in the object detection device is not limited to the method described in each of the above embodiments. In short, it is preferable to set a region of high priority that should be noted according to the speed of the moving body, the surrounding environment, etc. as the region of interest.
例えば、物体検出装置が搭載された移動体の移動速度が速い場合(例えば車両が高速走行中)に、特に前方を注目する必要性が高いため、投光範囲の中央領域を注目領域として設定しても良い。具体的には、投光範囲を上側領域、中央領域、下側領域のように移動体の移動面に略垂直な方向に3分割し、中央領域を注目領域として設定し、中央領域に対するライダの投光量を上げる。これにより、移動速度が速いときに注視する必要性が高い領域である中央領域において、物体検出を高精度化することができる。 For example, when the moving speed of a moving object equipped with an object detection device is high (for example, when the vehicle is traveling at high speed), it is highly necessary to pay particular attention to the front, so the central region of the projection range is set as the region of interest. You may. Specifically, the light projection range is divided into three in a direction substantially perpendicular to the moving surface of the moving body such as the upper region, the central region, and the lower region, the central region is set as the region of interest, and the lidar with respect to the central region Increase the amount of light projected. As a result, it is possible to improve the accuracy of object detection in the central region, which is a region that needs to be watched when the moving speed is high.
例えば、移動体の移動速度が遅い場合(例えば車両が低速走行中)に、特に両側を注目する必要性が高いため(飛び出し等に対処するため)、投光範囲の両側領域を注目領域として設定しても良い。具体的には、投光範囲を左側領域、中央領域、右側領域のように移動体の移動面に略平行な方向に3分割し、左側領域と右側領域を注目領域として設定し、左側領域と右側領域に対するライダの投光量を上げる。これにより、移動速度が遅いときに注視する必要性が高い領域である左側領域および右側領域において、物体検出を高精度化することができる。 For example, when the moving speed of the moving body is slow (for example, when the vehicle is traveling at low speed), it is highly necessary to pay attention to both sides (to deal with popping out, etc.), so the areas on both sides of the projection range are set as the areas of interest. You may. Specifically, the light projection range is divided into three in a direction substantially parallel to the moving surface of the moving body such as the left side region, the center region, and the right side region, and the left side region and the right side region are set as the attention region, and the left side region and the left side region are set. Increase the amount of light emitted by the rider to the right area. As a result, it is possible to improve the accuracy of object detection in the left side region and the right side region, which are regions that need to be watched when the moving speed is slow.
例えば、物体検出装置がライダとカメラを有する場合に、投光範囲の中央領域に対してはカメラの撮像結果を用いて注目領域を設定し、投光範囲の両側領域に対してはライダの検出結果を用いて注目領域を設定しても良い。 For example, when the object detection device has a lidar and a camera, the region of interest is set for the central region of the projection range using the image pickup result of the camera, and the lidar is detected for both regions of the projection range. The region of interest may be set using the result.
例えば、物体検出装置がライダとカメラを有する場合に、投光範囲の遠距離レンジに対してはライダの検出結果を用いて注目領域を設定し、投光範囲の短距離レンジに対してはカメラの撮像結果を用いて注目領域を設定しても良い。 For example, when the object detection device has a lidar and a camera, the region of interest is set using the detection result of the lidar for the long-distance range of the floodlight range, and the camera is set for the short-distance range of the floodlight range. The region of interest may be set using the imaging result of.
例えば、物体検出装置がライダとステレオカメラを有する場合に、視差マッチングの精度が低い領域(例えばテクスチャ量の少ない領域等)に移動物体や小物体があると推定し、該領域を注目領域として設定しても良い。なお、テクスチャ量が多い領域は、路面や巨大な構造物等であると推定できる。 For example, when the object detection device has a rider and a stereo camera, it is estimated that there is a moving object or a small object in a region where the parallax matching accuracy is low (for example, a region with a small amount of texture), and that region is set as a region of interest. You may. It can be estimated that the region with a large amount of texture is a road surface, a huge structure, or the like.
例えば、物体検出装置がライダと、単眼カメラもしくはステレオカメラを有する場合に、カメラの輝度画像から、テクスチャ量が少ないと判定された領域を注目領域として設定しても良い。ステレオカメラは、テクスチャ量が少ない領域は視差マッチング精度が低くなるため、テクスチャ量と精度があまり関係しないライダを用いて、その領域を集中的に見ることで、物体検出を高精度化することができる。 For example, when the object detection device has a rider and a monocular camera or a stereo camera, a region determined to have a small amount of texture from the luminance image of the camera may be set as a region of interest. In a stereo camera, the parallax matching accuracy is low in an area with a small amount of texture, so it is possible to improve the accuracy of object detection by focusing on the area using a rider whose accuracy is not so related to the amount of texture. can.
例えば、物体検出装置がライダとステレオカメラを有する場合に、エッジであると判断された領域を注目領域として設定しても良い。具体的には、ステレオカメラにより生成された視差画像に例えば微分エッジ検出法によるエッジ検出処理を行い、エッジであると判断された領域(類似の視差が連なっている領域)を注目領域とする。このように、エッジを高精度に検出することで、物体の存在領域をより高精度に検出することが可能となる。 For example, when the object detection device has a rider and a stereo camera, a region determined to be an edge may be set as a region of interest. Specifically, the parallax image generated by the stereo camera is subjected to edge detection processing by, for example, a differential edge detection method, and a region determined to be an edge (a region in which similar parallax is continuous) is set as a region of interest. By detecting the edge with high accuracy in this way, it is possible to detect the existing region of the object with higher accuracy.
例えば、ライダとカメラを有する物体検出装置が搭載される車両のヘッドライトで照明される領域(明るい領域)に対してはカメラの撮像結果を用いて注目領域を設定し、暗い領域に対してはライダの検出結果を用いて注目領域を設定しても良い。暗い領域に対してもライダは検出精度が高いからである。明るい領域に対しては、カメラの撮像結果を用いても高精度に検出が可能である。
また、カメラの撮像結果を用いて明るい領域(輝度値が所定値より大きい領域)と暗い領域(輝度値が所定値より小さい領域)を検出し、暗い領域を注目領域として設定してもよい。これは、明るい領域に対しては低反射物体でも検出可能なカメラの方がライダよりも検出精度が高いためライダで集中的に調べる必要性は低いが、暗い領域に対しては原理的にライダの方がカメラより検出精度が高いためにライダで集中的に調べる必要があるためある。このように、暗い領域を注目領域としてライダで集中的に検出することで、カメラ単体またはライダ単体のときよりも物体検出の高精度化が可能である。
For example, for the area illuminated by the headlights of a vehicle equipped with an object detection device having a rider and a camera (bright area), the area of interest is set using the image pickup result of the camera, and for the dark area, the area of interest is set. The region of interest may be set using the detection result of the rider. This is because the rider has high detection accuracy even in a dark area. For bright areas, it is possible to detect with high accuracy even by using the image pickup result of the camera.
Further, a bright region (a region having a luminance value larger than a predetermined value) and a dark region (a region having a luminance value smaller than a predetermined value) may be detected using the image pickup result of the camera, and the dark region may be set as a region of interest. This is because a camera that can detect even low-reflection objects in bright areas has higher detection accuracy than a rider, so there is less need for intensive examination with a rider, but in principle it is a rider for dark areas. This is because the detection accuracy of the camera is higher than that of the camera, so it is necessary to intensively investigate with a rider. In this way, by intensively detecting the dark area as the area of interest with the rider, it is possible to improve the accuracy of object detection as compared with the case of the camera alone or the rider alone.
また、上記各実施形態では、物体検出装置を車両に搭載する例について説明してきたが、例えば遠隔操作や自動操縦が可能な無人航空機(例えばドローン)に搭載しても良い。この場合も、注目領域を設定することで、特定の物体に関する情報を精度良く検出できる。このとき、飛行中の無人航空機のバランスを保つため、無人航空機の重心軸と物体検出装置300の重心軸とが同一の軸となるように、機体の下部に物体検出装置が設けることで、無人航空機の飛行をより安定させることができる。また、上記無人航空機に上記第1〜第4実施形態の物体検出装置100、200、300、400のいずれかを搭載しても良い。この場合も、注目領域を設定することで、特定の物体に関する情報を精度良く検出できる。
Further, in each of the above embodiments, an example in which the object detection device is mounted on a vehicle has been described, but the object detection device may be mounted on an unmanned aerial vehicle (for example, a drone) capable of remote control or autopilot, for example. In this case as well, by setting the region of interest, information on a specific object can be detected with high accuracy. At this time, in order to maintain the balance of the unmanned aerial vehicle in flight, an object detection device is provided at the bottom of the aircraft so that the center of gravity axis of the unmanned aerial vehicle and the center of gravity axis of the
また、上記第1〜第4実施形態の物体検出装置100、200、300、400を自律して移動可能なロボットに搭載しても良い。この場合も、注目領域を設定することで、特定の物体に関する情報を精度良く検出でき、ひいてはロボットを特定の物体に対して高精度に動作させることができる。
Further, the
すなわち、本発明の物体検出装置は、TOF(タイム オブ フライト)を利用した物体情報の検出技術全般に広く適用することが可能である。 That is, the object detection device of the present invention can be widely applied to the overall object information detection technology using TOF (time of flight).
また、本発明の物体検出装置は、移動体に搭載される用途に限らず、静止物体に搭載される用途や、装置単独でも用いることができる。 Further, the object detection device of the present invention is not limited to the use mounted on a moving body, but can also be used for a use mounted on a stationary object or a device alone.
また、上記各実施形態の説明で用いた数値、形状等は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。 In addition, the numerical values, shapes, and the like used in the description of each of the above embodiments can be appropriately changed without departing from the spirit of the present invention.
以下に、発明者が上記各実施形態を発案するに至った思考プロセスを説明する。 The thinking process that led to the inventor's idea of each of the above embodiments will be described below.
物体検出装置として、例えば、車載用途では、走行中の車両前方における物体の有無や、その物体までの距離を検出するライダが知られている。ライダは、光源を点灯させて投光し、物体から反射もしくは散乱された光を光検出器で検出することで、所望の範囲における物体の有無やその物体までの距離を検出できる。これと、ステレオカメラなど、他の測距方式を組み合わせたものがこれまでに開示されている。 As an object detection device, for example, in an in-vehicle application, a rider that detects the presence or absence of an object in front of a moving vehicle and the distance to the object is known. The rider can detect the presence or absence of an object and the distance to the object in a desired range by turning on the light source, projecting light, and detecting the light reflected or scattered from the object with a photodetector. So far, a combination of this with another distance measuring method such as a stereo camera has been disclosed.
特許文献1(特開2006−284293号公報)では、低反射率の物体(低反射物体)がある領域で、信号を検出する閾値を下げることで、低反射物体の検出率を向上させている。 In Patent Document 1 (Japanese Unexamined Patent Publication No. 2006-284293), the detection rate of a low-reflection object is improved by lowering the threshold value for detecting a signal in a region where a low-reflection object (low-reflection object) exists. ..
しかしながら、特許文献1では、その測距性能が、それぞれの測距デバイスの性能の限界により限られてしまう。おもに、検出距離と精度に関わるSN比において、測距デバイスの限界性能より向上させることは困難である。
However, in
特許文献1は、低反射物体のときに閾値を下げているが、外光などのノイズが大きい場合は、そもそも信号光がノイズよりも小さくなってしまい、閾値を下げてもノイズが検出されるだけで、物体が検出できなくなってしまう。システムとしては、最初から想定している最大のノイズレベルを狙って閾値を設定するのが最適であり、それより閾値を下げることは現実的ではない。
In
そこで、発明者は、以上の課題を解決するべく、物体検出装置において、注目状態を判断した上で、注目する領域についてのSN比を向上させ、より遠距離、より低反射、より小さな物体に関する情報を高精度に検出すべく、上記各実施形態を発案するに至った。 Therefore, in order to solve the above problems, the inventor determines the state of interest in the object detection device, improves the SN ratio for the region of interest, and relates to a longer distance, lower reflection, and a smaller object. In order to detect information with high accuracy, we have come up with the idea of each of the above embodiments.
1、1´…車両(移動体装置)、21…投光系、22a…受光素子(光検出器の一部)、22c…電流電圧変換器(光検出器の一部)、23…制御系、24…信号処理系、24a…平均化/積算処理部(信号処理部)、24b…二値化処理部(信号検出部)、100、200、300…物体検出装置。 1, 1'... vehicle (mobile device), 21 ... light projecting system, 22a ... light receiving element (part of photodetector), 22c ... current / voltage converter (part of photodetector), 23 ... control system , 24 ... Signal processing system, 24a ... Average / integration processing unit (signal processing unit), 24b ... Binarization processing unit (signal detection unit), 100, 200, 300 ... Object detection device.
Claims (14)
前記投光系から投光され物体で反射された光を受光する光検出器を含む受光系と、
前記光検出器の出力信号又は該出力信号に基づく信号が入力される信号検出部を含み、検出信号を出力する信号処理系と、
前記投光系の投光範囲の少なくとも一部を撮像し第1撮像画像を出力する第1撮像系と、
前記投光範囲の少なくとも一部を撮像し第2撮像画像を出力する第2撮像系と、
前記投光範囲内の少なくとも1つの領域を前記検出信号と前記第1撮像画像と前記第2撮像画像とに基づいて注目領域として設定し、前記投光系の投光条件及び前記信号処理系の処理条件の少なくとも一方を、前記注目領域へ投光するときと前記投光範囲における前記注目領域以外の領域に投光するときとで異ならせる制御系と、を備える
物体検出装置。 A floodlight system including a light source and
A light receiving system including a photodetector that receives light projected from the light projecting system and reflected by an object, and a light receiving system.
A signal processing system that includes a signal detection unit to which an output signal of the photodetector or a signal based on the output signal is input and outputs a detection signal.
A first imaging system that captures at least a part of the projection range of the projection system and outputs a first captured image,
A second imaging system that captures at least a part of the light projection range and outputs a second captured image,
At least one region within the light projection range is set as a region of interest based on the detection signal, the first captured image, and the second captured image, and the light projection conditions of the light projection system and the signal processing system are set. at least one and a control system for different between when projected in a region other than the region of interest in the light projection range and when light is projected to the region of interest, the object detecting device Ru provided with processing conditions.
前記投光系から投光され物体で反射された光を受光する光検出器を含む受光系と、
前記光検出器の出力信号又は該出力信号に基づく信号が入力される信号検出部を含み、検出信号を出力する信号処理系と、
前記投光系の投光範囲の少なくとも一部を撮像し第1撮像画像を出力する第1撮像系と、
前記投光範囲の少なくとも一部を撮像し第2撮像画像を出力する第2撮像系と、
前記投光範囲内の少なくとも1つの領域を前記検出信号と前記第1撮像画像と前記第2撮像画像とに基づいて注目領域として設定し、前記注目領域への投光による前記光検出器の出力信号又は該出力信号に基づく信号が前記信号検出部で検出されるように前記投光系及び前記信号処理系の少なくとも一方を制御する制御系と、を備える
物体検出装置。 A floodlight system including a light source and
A light receiving system including a photodetector that receives light projected from the light projecting system and reflected by an object, and a light receiving system.
A signal processing system that includes a signal detection unit to which an output signal of the photodetector or a signal based on the output signal is input and outputs a detection signal.
A first imaging system that captures at least a part of the projection range of the projection system and outputs a first captured image,
A second imaging system that captures at least a part of the light projection range and outputs a second captured image,
At least one region within the projection range is set as a region of interest based on the detection signal, the first captured image, and the second captured image, and the output of the photodetector by projecting light onto the region of interest. a control system signal or a signal based on the output signal to control said at least one light projecting system and the signal processing system to be detected by the signal detection unit, an object detecting device Ru comprising a.
前記信号処理系は、前記複数回の投光による前記光検出器の複数の出力信号を平均化及び/又は積算し、得られた信号を前記信号検出部に出力する信号処理部を更に含むことを特徴とする請求項1〜5のいずれか一項に記載の物体検出装置。 The control system controls the light projection system to continuously project light on the region of interest a plurality of times.
The signal processing system further includes a signal processing unit that averages and / or integrates a plurality of output signals of the photodetector due to the plurality of projections and outputs the obtained signal to the signal detection unit. The object detection device according to any one of claims 1 to 5, wherein the object detection device is characterized.
前記制御系は、前記投光系から投光されていないときの前記光検出器の出力からノイズレベルを取得し、該ノイズレベルを基準に前記閾値を設定することを特徴とする請求項1〜6のいずれか一項に記載の物体検出装置。 A threshold value for signal detection is set in the signal detection unit, and a threshold value for signal detection is set.
Claims 1 to 1, wherein the control system acquires a noise level from the output of the photodetector when no light is projected from the light projection system, and sets the threshold value based on the noise level. The object detection device according to any one of 6.
前記制御系は、前記複数の発光部を個別に制御することを特徴とする請求項1〜8のいずれか一項に記載の物体検出装置。 The light source includes a plurality of light emitting units arranged in an array.
The object detection device according to any one of claims 1 to 8, wherein the control system individually controls the plurality of light emitting units.
前記制御系は、前記光源及び前記走査手段の少なくとも一方を制御することを特徴とする請求項1〜8のいずれか一項に記載の物体検出装置。 The floodlight system further includes scanning means for scanning the light from the light source.
The object detection device according to any one of claims 1 to 8, wherein the control system controls at least one of the light source and the scanning means.
前記物体検出装置が搭載される移動体と、を備える移動体装置。 The object detection device according to any one of claims 1 to 13.
A mobile device including a mobile body on which the object detection device is mounted.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17159434.4A EP3223034B1 (en) | 2016-03-16 | 2017-03-06 | Object detection apparatus and moveable apparatus |
US15/454,709 US10398006B2 (en) | 2016-03-16 | 2017-03-09 | Object detection apparatus and moveable apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016052725 | 2016-03-16 | ||
JP2016052725 | 2016-03-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017173298A JP2017173298A (en) | 2017-09-28 |
JP6942966B2 true JP6942966B2 (en) | 2021-09-29 |
Family
ID=59970989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017010080A Active JP6942966B2 (en) | 2016-03-16 | 2017-01-24 | Object detection device and mobile device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6942966B2 (en) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019124177A1 (en) * | 2017-12-19 | 2019-06-27 | パイオニア株式会社 | Optical scanning device and distance measuring device |
JP7238343B2 (en) * | 2017-12-22 | 2023-03-14 | 株式会社デンソー | Distance measuring device and distance measuring method |
US11662433B2 (en) * | 2017-12-22 | 2023-05-30 | Denso Corporation | Distance measuring apparatus, recognizing apparatus, and distance measuring method |
JP6927101B2 (en) * | 2018-03-13 | 2021-08-25 | オムロン株式会社 | Photodetector, photodetector and lidar device |
JP2019158693A (en) * | 2018-03-15 | 2019-09-19 | 株式会社リコー | Light reception device, object detection device, distance measurement device, moving body device, noise measurement method, object detection method, and distance measurement method |
JPWO2019193642A1 (en) * | 2018-04-03 | 2021-04-30 | 株式会社自律制御システム研究所 | Self-position estimation device and self-position estimation method for unmanned aerial vehicles |
JP7141242B2 (en) * | 2018-05-18 | 2022-09-22 | 株式会社小糸製作所 | sensor system |
JP6958485B2 (en) * | 2018-05-29 | 2021-11-02 | 株式会社Soken | Object detection device |
JP2020003236A (en) | 2018-06-25 | 2020-01-09 | 株式会社リコー | Distance measurement device, moving body, distance measurement method, and distance measurement system |
KR20200009757A (en) | 2018-07-20 | 2020-01-30 | 현대모비스 주식회사 | Lidar system and operating method thereof |
JP6723317B2 (en) | 2018-10-25 | 2020-07-15 | 三菱電機株式会社 | Laser distance measuring device |
JP2020076619A (en) * | 2018-11-07 | 2020-05-21 | ソニーセミコンダクタソリューションズ株式会社 | Floodlight control system, floodlight control method |
KR102352325B1 (en) | 2018-11-13 | 2022-01-14 | 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 | Laser phase tracking method and system for internal reflection subtraction in phase encoding LIDAR |
JP2020091224A (en) * | 2018-12-06 | 2020-06-11 | マクセル株式会社 | Irradiation system and irradiation method |
JP7317530B2 (en) | 2019-03-14 | 2023-07-31 | 株式会社東芝 | Distance measuring device, distance measuring method, and signal processing method |
JP2020148747A (en) * | 2019-03-15 | 2020-09-17 | 株式会社リコー | Object detection device |
JP7255259B2 (en) * | 2019-03-19 | 2023-04-11 | 株式会社リコー | detector, rangefinder, time measurement method, program, moving object |
JP2020153796A (en) * | 2019-03-19 | 2020-09-24 | 株式会社リコー | Distance measuring device and method for measuring distance |
JP7388064B2 (en) * | 2019-03-20 | 2023-11-29 | 株式会社リコー | Distance measuring device and method |
DE102019209691A1 (en) * | 2019-07-02 | 2021-01-07 | Ibeo Automotive Systems GmbH | Adaptation device and lidar measuring device |
JP2021025778A (en) * | 2019-07-31 | 2021-02-22 | ソニーセミコンダクタソリューションズ株式会社 | Laser driving device, method for adjusting pulse width, and sensing module |
JP2021032794A (en) * | 2019-08-28 | 2021-03-01 | パイオニア株式会社 | Measuring device, control method, program, and storage medium |
KR102343294B1 (en) * | 2019-10-02 | 2021-12-24 | 현대모비스 주식회사 | Lidar System and its Control Method |
EP4040108A4 (en) | 2019-10-01 | 2022-11-23 | Panasonic Intellectual Property Management Co., Ltd. | Distance measurement device and control method |
US11740333B2 (en) | 2019-12-04 | 2023-08-29 | Waymo Llc | Pulse energy plan for light detection and ranging (lidar) devices based on areas of interest and thermal budgets |
CN114868037A (en) * | 2019-12-17 | 2022-08-05 | 富士胶片株式会社 | Information processing device, imaging device, information processing method, and program |
CN113075690B (en) | 2020-01-03 | 2023-04-28 | 华为技术有限公司 | TOF depth sensing module and image generation method |
JP7452044B2 (en) * | 2020-01-31 | 2024-03-19 | 株式会社デンソー | light detection device |
JP7382858B2 (en) * | 2020-03-09 | 2023-11-17 | ソニーセミコンダクタソリューションズ株式会社 | Distance sensor |
JPWO2021181841A1 (en) | 2020-03-11 | 2021-09-16 | ||
DE102020115494B3 (en) * | 2020-05-19 | 2021-04-22 | Jenoptik Optical Systems Gmbh | Lens, use of a lens, measuring system with a lens and use of a biaspheric plastic lens in a lens |
JP7456855B2 (en) * | 2020-06-01 | 2024-03-27 | 日本信号株式会社 | Vehicle location system |
JP7452341B2 (en) * | 2020-09-11 | 2024-03-19 | 株式会社デンソー | Cleaning control device, cleaning control method, cleaning control program |
WO2022054532A1 (en) * | 2020-09-11 | 2022-03-17 | 株式会社デンソー | Vehicle control device, vehicle control method, and vehicle control program |
JP7425702B2 (en) * | 2020-09-17 | 2024-01-31 | 株式会社東芝 | Distance measuring device and distance measuring method |
JP2023116280A (en) * | 2022-02-09 | 2023-08-22 | 株式会社小糸製作所 | Projector and measuring apparatus |
JP7467562B1 (en) | 2022-10-07 | 2024-04-15 | 本田技研工業株式会社 | External Recognition Device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000028720A (en) * | 1998-07-13 | 2000-01-28 | Omron Corp | Distance measuring device |
JP2006329971A (en) * | 2005-04-27 | 2006-12-07 | Sanyo Electric Co Ltd | Detector |
JP2007139594A (en) * | 2005-11-18 | 2007-06-07 | Omron Corp | Object detection device |
JP4917458B2 (en) * | 2007-03-15 | 2012-04-18 | オムロンオートモーティブエレクトロニクス株式会社 | Moving object detection device |
JP2009192499A (en) * | 2008-02-18 | 2009-08-27 | Stanley Electric Co Ltd | Apparatus for generating distance image |
US8736818B2 (en) * | 2010-08-16 | 2014-05-27 | Ball Aerospace & Technologies Corp. | Electronically steered flash LIDAR |
JP2012063236A (en) * | 2010-09-16 | 2012-03-29 | Ricoh Co Ltd | Laser radar device |
JP5978565B2 (en) * | 2011-06-30 | 2016-08-24 | 富士通株式会社 | Monitoring device and monitoring method |
JP2013096905A (en) * | 2011-11-02 | 2013-05-20 | Denso Corp | Distance measuring apparatus |
-
2017
- 2017-01-24 JP JP2017010080A patent/JP6942966B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017173298A (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942966B2 (en) | Object detection device and mobile device | |
US10398006B2 (en) | Object detection apparatus and moveable apparatus | |
US20210286076A1 (en) | MEMS BEAM STEERING AND FISHEYE RECEIVING LENS FOR LiDAR SYSTEM | |
JP6387407B2 (en) | Perimeter detection system | |
CN111352091B (en) | Real-time gating and signal routing in laser and detector arrays for LIDAR applications | |
JP2018119986A (en) | Optical distance meter without multiple-view scanner under bright circumference background light | |
JP2018004426A (en) | Object detector, sensing device, and mobile body device | |
KR101785253B1 (en) | LIDAR Apparatus | |
JP2020003236A (en) | Distance measurement device, moving body, distance measurement method, and distance measurement system | |
KR101785254B1 (en) | Omnidirectional LIDAR Apparatus | |
WO2017009848A1 (en) | Gated structured imaging | |
JP2017219502A (en) | Object detector, sensing device, and mobile body device | |
JP6933045B2 (en) | Object detection device, sensing device, mobile device and object detection method | |
CN106324586B (en) | Photonic device | |
JP6874592B2 (en) | Time measuring device, distance measuring device, moving object, time measuring method, and distance measuring method | |
JP2017032552A (en) | Pulse light detection device, object detection device, sensing device, mobile device, and pulse light detection method | |
EP3705913B1 (en) | Lidar imaging apparatus for a motor vehicle | |
US11156716B1 (en) | Hybrid LADAR with co-planar scanning and imaging field-of-view | |
JP7040042B2 (en) | Time measuring device, distance measuring device, moving body device, time measuring method and distance measuring method | |
CN114935743B (en) | Emission module, photoelectric detection device and electronic equipment | |
CN114935742B (en) | Emission module, photoelectric detection device and electronic equipment | |
JP2019109193A (en) | Distance measuring device, mobile device and distance measuring | |
WO2022150129A1 (en) | Systems and methods for controlling laser power in light detection and ranging (lidar) systems | |
JP2019007892A (en) | Information acquisition device, program, and information acquisition system | |
US20230078063A1 (en) | Distance measurement device and distance measurement system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191105 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6942966 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |