JP6942966B2 - Object detection device and mobile device - Google Patents

Object detection device and mobile device Download PDF

Info

Publication number
JP6942966B2
JP6942966B2 JP2017010080A JP2017010080A JP6942966B2 JP 6942966 B2 JP6942966 B2 JP 6942966B2 JP 2017010080 A JP2017010080 A JP 2017010080A JP 2017010080 A JP2017010080 A JP 2017010080A JP 6942966 B2 JP6942966 B2 JP 6942966B2
Authority
JP
Japan
Prior art keywords
light
region
signal
interest
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017010080A
Other languages
Japanese (ja)
Other versions
JP2017173298A (en
Inventor
忠司 仲村
忠司 仲村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP17159434.4A priority Critical patent/EP3223034B1/en
Priority to US15/454,709 priority patent/US10398006B2/en
Publication of JP2017173298A publication Critical patent/JP2017173298A/en
Application granted granted Critical
Publication of JP6942966B2 publication Critical patent/JP6942966B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、物体検出装置及び移動体装置に関する。 The present invention relates to an object detection device and a mobile device.

近年、投光し、物体で反射された光を光検出器で受光して物体の有無、物体までの距離等の物体に関する情報を検出する装置の開発が盛んに行われている。 In recent years, a device that projects light and receives light reflected by an object with a photodetector to detect information about the object such as the presence or absence of the object and the distance to the object has been actively developed.

例えば、特許文献1に開示されている技術では、特定の物体(例えば低反射物体)に関する情報を検出するときに、光検出器の出力信号を検出するための閾値を下げている。 For example, in the technique disclosed in Patent Document 1, when detecting information about a specific object (for example, a low reflection object), the threshold value for detecting the output signal of the photodetector is lowered.

しかしながら、特許文献1に開示されている装置では、特定の物体に関する情報の検出精度を向上することに関して改善の余地があった。 However, in the apparatus disclosed in Patent Document 1, there is room for improvement in improving the detection accuracy of information regarding a specific object.

本発明は、光源を含む投光系と、前記投光系から投光され物体で反射された光を受光する光検出器を含む受光系と、前記光検出器の出力信号又は該出力信号に基づく信号が入力される信号検出部を含み検出信号を出力する信号処理系と、前記投光系の投光範囲の少なくとも一部を撮像し第1撮像画像を出力する第1撮像系と、前記投光範囲の少なくとも一部を撮像し第2撮像画像を出力する第2撮像系と、前記投光系の投光範囲内の少なくとも1つの領域を前記検出信号と前記第1撮像画像と前記第2撮像画像とに基づいて注目領域として設定し、前記注目領域に対する前記投光系の投光条件及び前記信号処理系の処理条件の少なくとも一方を、前記注目領域へ投光するときと前記投光範囲における前記注目領域以外の領域に投光するときとで異ならせる制御系と、を備え物体検出装置である。
The present invention includes a light projecting system including a light source, a light receiving system including a light detector that receives light projected from the light projecting system and reflected by an object, and an output signal of the light detector or the output signal. A signal processing system that includes a signal detection unit to which a signal based on the light is input and outputs a detection signal, a first imaging system that captures at least a part of the projection range of the projection system and outputs a first imaging image, and the above. A second imaging system that captures at least a part of the projection range and outputs a second imaging image, and at least one region within the projection range of the projection system includes the detection signal , the first captured image, and the first image. 2 When the light projection condition of the light projection system and the processing condition of the signal processing system with respect to the attention area are projected to the attention area and the light projection is set as the area of interest based on the captured image. a control system for different between when projected in a region other than the region of interest in the region, an object detection apparatus Ru comprising a.

本発明によれば、特定の物体に関する情報の検出精度を向上できる。 According to the present invention, it is possible to improve the detection accuracy of information about a specific object.

本発明の第1実施形態の物体検出装置としてのライダ(非走査型)が搭載された車両の外観図である。FIG. 5 is an external view of a vehicle equipped with a rider (non-scanning type) as an object detection device according to the first embodiment of the present invention. 第1実施形態の監視システムの構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the monitoring system of 1st Embodiment. 投光波形と受光波形を示す図である。It is a figure which shows the light-emitting waveform and the light-receiving waveform. 投光系、受光系を説明するための図である。It is a figure for demonstrating the light projection system and the light receiving system. 光源、受光素子、光学系、検出領域の関係を説明するための図である。It is a figure for demonstrating the relationship of a light source, a light receiving element, an optical system, and a detection area. ライダによって生成された距離画像を示す図である。It is a figure which shows the distance image generated by a rider. 図7(a)〜図7(c)は、それぞれ光源に面発光レーザアレイを用いたときのchの点灯パターン(その1〜その3)を説明するための図である。7 (a) to 7 (c) are diagrams for explaining ch lighting patterns (No. 1 to No. 3) when a surface emitting laser array is used as a light source, respectively. 図8(a)及び図8(b)は、それぞれ受光信号の信号レベルとノイズレベルの一般的な関係(その1及びその2)を示す図である。8 (a) and 8 (b) are diagrams showing a general relationship (No. 1 and No. 2) between the signal level and the noise level of the received signal, respectively. 図9(a)は受光信号の第1の信号レベルとノイズレベルの関係を示す図であり、図9(b)は受光信号の第2の信号レベルとノイズレベルの関係を示す図である。FIG. 9A is a diagram showing the relationship between the first signal level of the received light signal and the noise level, and FIG. 9B is a diagram showing the relationship between the second signal level of the received signal and the noise level. 閾値設定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the threshold value setting process. 物体検出処理1を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 1. SN比維持向上処理1を説明するためのフローチャートである。It is a flowchart for demonstrating the SN ratio maintenance improvement process 1. SN比維持向上処理2を説明するためのフローチャートである。It is a flowchart for demonstrating the SN ratio maintenance improvement process 2. SN比維持向上処理3を説明するためのフローチャートである。It is a flowchart for demonstrating the SN ratio maintenance improvement process 3. 物体検出処理2を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 2. 物体検出処理3を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 3. 物体検出処理4を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 4. 物体検出処理5を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 5. 物体検出処理6を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 6. 図20(a)及び図20(b)は、それぞれ第2実施形態の物体検出装置としてのライダ(走査型)を説明するための図である。20 (a) and 20 (b) are diagrams for explaining a lidar (scanning type) as the object detection device of the second embodiment, respectively. 図21(a)及び図21(b)は、それぞれ第3実施形態のライダとステレオカメラを備える物体検出装置が搭載された車両の側面図及び正面図である。21 (a) and 21 (b) are side views and front views of a vehicle equipped with an object detection device including the rider and the stereo camera of the third embodiment, respectively. 第3実施形態の物体検出装置の投光範囲と撮像範囲を示す図である。It is a figure which shows the light projection range and the imaging range of the object detection apparatus of 3rd Embodiment. ライダとステレオカメラがユニット化された物体検出装置を示す図である。It is a figure which shows the object detection device which unitized a rider and a stereo camera. 第4実施形態の物体検出装置の外観構成及び取り付け例を示す図である。It is a figure which shows the appearance structure and the mounting example of the object detection apparatus of 4th Embodiment. 第4実施形態の物体検出装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the object detection apparatus of 4th Embodiment. 第4実施形態の物体検出装置の制御装置のソフトウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the software structure of the control device of the object detection device of 4th Embodiment. 第4実施形態の物体検出装置の制御装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the control device of the object detection device of 4th Embodiment. 物体検出処理7を説明するためのフローチャートである。It is a flowchart for demonstrating the object detection process 7.

以下、本発明の第1実施形態を図面に基づいて説明する。 Hereinafter, the first embodiment of the present invention will be described with reference to the drawings.

[第1実施形態]
先ず、第1実施形態の物体検出装置100の一例としてのライダ20Aの概要について説明する。
[First Embodiment]
First, an outline of the rider 20A as an example of the object detection device 100 of the first embodiment will be described.

〈概要〉
図1には、ライダ(Lidar:Light detecting and ranging)20Aが車両本体(移動体)に搭載される車両1(移動体装置)の外観が示されている。ライダ20Aは、レーザ光を出射して反射光を検知することで測距を行う測距装置であり、レーザレーダとも呼ばれる。第1実施形態のライダ20Aは、非走査型のライダである。
<Overview>
FIG. 1 shows the appearance of a vehicle 1 (moving body device) in which a lidar (Light detecting and ranking) 20A is mounted on a vehicle body (moving body). The rider 20A is a distance measuring device that measures a distance by emitting laser light and detecting reflected light, and is also called a laser radar. The rider 20A of the first embodiment is a non-scanning type rider.

ライダ20Aは、一例として、車両1の前方のナンバープレート近傍に取り付けられている。なお、ライダ20Aは、車両1の例えばバックミラー近傍に配置されても良い。ライダ20Aは、例えば車両1のバッテリーから電力の供給を受ける。 As an example, the rider 20A is attached near the license plate in front of the vehicle 1. The rider 20A may be arranged near the rear-view mirror of the vehicle 1, for example. The rider 20A receives power from, for example, the battery of vehicle 1.

なお、本明細書では、XYZ3次元直交座標系において、路面に直交する方向をZ軸方向、車両1の前進方向を+X方向として説明する。 In this specification, in the XYZ three-dimensional Cartesian coordinate system, the direction orthogonal to the road surface is described as the Z-axis direction, and the forward direction of the vehicle 1 is described as the + X direction.

図2には、ライダ20Aと監視制御装置30を備える監視システム10の構成がブロック図にて示されている。監視制御装置30は、車両1内に配備されている。すなわち、監視システム10は、車両1に搭載されている。 FIG. 2 shows a block diagram of the configuration of the monitoring system 10 including the rider 20A and the monitoring control device 30. The monitoring control device 30 is installed in the vehicle 1. That is, the monitoring system 10 is mounted on the vehicle 1.

ライダ20Aは、一例として、図2に示されるように、光源としてのLD21a及びLD駆動部21bを含む投光系21と、受光素子22a、結像光学系22b及び電流電圧変換器22cを含む受光系22と、平均化/積算処理部24a及び二値化処理部24bを含む信号処理系24と、投光系21及び信号処理系24を制御する制御系23と、を備えている。なお、「LD」はレーザダイオードの略称である。 As an example, as shown in FIG. 2, the rider 20A receives a light receiving system 21 including an LD 21a as a light source and an LD driving unit 21b, a light receiving element 22a, an imaging optical system 22b, and a current / voltage converter 22c. The system 22 includes a signal processing system 24 including an averaging / integrating processing unit 24a and a binarization processing unit 24b, and a control system 23 for controlling the light source system 21 and the signal processing system 24. In addition, "LD" is an abbreviation for a laser diode.

監視システム10では、ライダ20Aの制御系23と監視制御装置30が電気的に接続されている。監視制御装置30は、ライダ20Aを動作させ、該ライダ20Aで検出された情報に基づいて、物体の形状や大きさの決定、物体の位置情報の算出、移動情報の算出、物体の種類の認識等の処理を行って、危険の有無を判断する。危険があると判断された場合には、警報を出したり、ハンドルを切って危険を回避したり、ブレーキを踏んだりするための指令を出す。これらの指令は、それぞれ車両1が有する警報装置、操舵装置、制動装置等に送られる。 In the monitoring system 10, the control system 23 of the rider 20A and the monitoring control device 30 are electrically connected. The monitoring control device 30 operates the rider 20A, and based on the information detected by the rider 20A, determines the shape and size of the object, calculates the position information of the object, calculates the movement information, and recognizes the type of the object. Etc. to determine the presence or absence of danger. When it is determined that there is a danger, it issues an alarm, turns the steering wheel to avoid the danger, and issues a command to step on the brake. These commands are sent to the alarm device, steering device, braking device, and the like of the vehicle 1, respectively.

《物体検出及び測距の原理》
第1実施形態において、ライダ20Aを用いる物体検出、距離測定(測距)の基本的な原理は、いわゆる直接TOF法を用いている。この直接TOF法について、概念図である図3を用いて簡単に説明する。
<< Principle of object detection and ranging >>
In the first embodiment, the so-called direct TOF method is used as the basic principle of object detection and distance measurement (distance measurement) using the rider 20A. This direct TOF method will be briefly described with reference to FIG. 3, which is a conceptual diagram.

制御系23は、投光系21から発光パルス(信号光)を含む投光波を投光したときの受光系22で受光される受光波における反射光パルス(信号光)の有無によって、投光範囲における物体の有無を判定することができる。 The control system 23 has a light projecting range depending on the presence or absence of a reflected light pulse (signal light) in the light receiving wave received by the light receiving system 22 when a light projecting wave including an emission pulse (signal light) is projected from the light projecting system 21. It is possible to determine the presence or absence of an object in.

さらに、制御系23は、LD21aをパルス発光させたタイミング(投光波において発光パルスが射出されたタイミング)から、受光素子22aの受光タイミングまで(受光波において反射光パルスが受光素子22aに到達するまで)の時間を測定し、その測定値と光速を掛け合わせることで、ライダ20Aと物体の間を光が往復した距離を求めることができる。 Further, in the control system 23, from the timing when the LD 21a is pulsed (the timing when the light emitting pulse is emitted in the projected wave) to the light receiving timing of the light receiving element 22a (until the reflected light pulse reaches the light receiving element 22a in the light receiving wave). ) Is measured, and the measured value is multiplied by the speed of light to obtain the distance that the light reciprocates between the rider 20A and the object.

投光系21と受光系22は物体に対してほぼ同一距離にあり、LD21aから物体までの距離と該物体から受光素子22aまでの距離はほぼ同一とみなせるため、制御系23は上述のようにして求めた距離の半分を、ライダ20Aから物体までの距離として算出する。 Since the light projecting system 21 and the light receiving system 22 are approximately the same distance from the object, and the distance from the LD 21a to the object and the distance from the object to the light receiving element 22a can be regarded as substantially the same, the control system 23 is as described above. Half of the obtained distance is calculated as the distance from the rider 20A to the object.

なお、光時間差法や光位相差法など時間計測の方法は種々あり、公知例が多数あるため割愛する。その公知例の中に、間接TOF法と呼ばれる方式(例えば特表2015-501927号公報、特表2013-538342号公報、特許5089289号公報参照)もある。本発明では、いずれの方式でも適用可能である。 There are various methods for measuring time such as the optical time difference method and the optical phase difference method, and since there are many known examples, they are omitted here. Among the known examples, there is also a method called an indirect TOF method (see, for example, Japanese Patent Application Laid-Open No. 2015-501927, Japanese Patent Application Laid-Open No. 2013-538342, Japanese Patent No. 5089289). In the present invention, any method can be applied.

ここで、角度分解能を得るために、投光系21、受光系22どちらで分解しても良い。投光系21で分解する場合、光源に独立に発光する発光エリアを複数設け、複数の発光エリアを順次点灯させる。これにより、投光している角度範囲を確定することができ、各発光エリアの発光タイミングから、受光素子の受光タイミングまでの時間によって該発光エリアに対応するエリアに存在する物体までの距離を測定することができる。 Here, in order to obtain the angular resolution, either the light projecting system 21 or the light receiving system 22 may be decomposed. When the light projecting system 21 decomposes, a plurality of light emitting areas that emit light independently are provided in the light source, and the plurality of light emitting areas are sequentially turned on. As a result, the angle range in which the light is projected can be determined, and the distance from the light emitting timing of each light emitting area to the object existing in the area corresponding to the light emitting area is measured by the time from the light receiving timing of the light receiving element to the light receiving timing of the light receiving element. can do.

特に、長距離検出を狙う場合は、ハイパワーの端面発光型LDは複数の発光エリアを持つことが難しいため、面発光レーザアレイを適用することが好ましく、図5に示されるように、カップリングレンズなどを含む光学系を用いて、検出領域(投光範囲)の各エリアに投光する領域を設定することが好ましい。 In particular, when aiming at long-distance detection, it is difficult for a high-power end face emitting LD to have a plurality of emitting areas, so it is preferable to apply a surface emitting laser array, and as shown in FIG. 5, coupling. It is preferable to set a light projecting area in each area of the detection area (light projecting range) by using an optical system including a lens or the like.

受光系22で分解する場合、受光素子に複数の受光エリアを設けると良い。この場合、検出領域を一斉に照射しても受光素子で受光エリア毎に独立に信号を検知できるので、検出領域を角度毎に分解することが可能となる。この場合、図4に示されるように、光源から射出され物体で反射された光を受光素子の複数の受光エリアへ集光する結像光学系22bを用いて、各受光エリアが検出する領域を設定することが好ましい。 When disassembling with the light receiving system 22, it is preferable to provide a plurality of light receiving areas in the light receiving element. In this case, even if the detection area is irradiated all at once, the light receiving element can independently detect the signal for each light receiving area, so that the detection area can be decomposed for each angle. In this case, as shown in FIG. 4, the region detected by each light receiving area is determined by using the imaging optical system 22b that collects the light emitted from the light source and reflected by the object into a plurality of light receiving areas of the light receiving element. It is preferable to set it.

図5では、光源もしくは受光素子の各エリアをY軸方向のみの1次元的な配列でしか示していないが、YZ平面に沿った2次元的な配列とし、Y軸方向及びZ軸方向の各方向で角度分解能を付与することも可能である。 In FIG. 5, each area of the light source or the light receiving element is shown only in a one-dimensional arrangement only in the Y-axis direction. It is also possible to impart angular resolution in the direction.

このように、Y軸方向及びZ軸方向の各方向での角度分解能が得られると、検出領域のエリア毎の距離情報を得ることができ、ひいては検出領域の距離画像を生成することができる。すなわち、検出領域を光源もしくは受光素子のエリア分割数だけ分割して測距でき、検出領域の分割された各エリアに対する1回の測距によって、1フレームの距離画像を生成することができる。例えば、光源の発光エリアもしくは受光素子の受光エリアが画素毎にエリア分割されている場合、検出領域の分割された各エリアが距離画像の各画素に1対1で対応する。そこで、検出領域の分割された各エリアを「画素領域」とも呼ぶ。 When the angular resolutions in the Y-axis direction and the Z-axis direction are obtained in this way, the distance information for each area of the detection region can be obtained, and the distance image of the detection region can be generated. That is, the detection area can be divided by the number of areas divided by the light source or the light receiving element to measure the distance, and one frame of distance image can be generated by one distance measurement for each divided area of the detection area. For example, when the light emitting area of the light source or the light receiving area of the light receiving element is divided into areas for each pixel, each divided area of the detection area corresponds to each pixel of the distance image on a one-to-one basis. Therefore, each divided area of the detection area is also referred to as a "pixel area".

そこで、第1実施形態のライダ20Aでは、光源もしくは受光素子の複数のエリア(発光エリア又は受光エリア)がYZ平面に沿って2次元配列されている。 Therefore, in the rider 20A of the first embodiment, a plurality of areas (light emitting area or light receiving area) of the light source or the light receiving element are two-dimensionally arranged along the YZ plane.

図6には、ライダ20Aのあるフレームでの物体までの距離情報の検出結果(距離画像)が示されている。 FIG. 6 shows the detection result (distance image) of the distance information to the object in a certain frame of the rider 20A.

図6では、検出領域にある3つの物体A、物体B、物体Cのうち、物体Aがライダ20Aから最も近くにあり、物体Cがライダ20Aから最も遠くにある。すなわち、物体Aが最近接物体である。 In FIG. 6, of the three objects A, B, and C in the detection area, the object A is the closest to the rider 20A, and the object C is the farthest from the rider 20A. That is, the object A is the closest object.

そこで、例えばライダ20Aから物体Aまでの距離が所定距離(例えば100m〜200mの所定距離)未満の場合に、投光範囲全域を均一な投光条件でサーチする非注目モードから、例えば投光範囲における最近接物体(ライダ20Aに最も近接する物体)である物体Aが存在する領域のみを高精度に検出するための注目モードに移行させる。注目モードに移行すると、制御系23により物体Aが存在する領域が注目領域として設定される。 Therefore, for example, when the distance from the rider 20A to the object A is less than a predetermined distance (for example, a predetermined distance of 100 m to 200 m), the non-attention mode for searching the entire projection range under uniform projection conditions, for example, the projection range. The mode shifts to the attention mode for detecting only the region where the object A, which is the closest object (the object closest to the rider 20A), exists in the above. When the mode shifts to the attention mode, the control system 23 sets the region where the object A exists as the attention region.

この際、路面、構造物等の静止物体(恒常的に静止している物体)を同時に検出している場合は、制御系23は、該静止物体を認識して、それを除いた検出結果に基づいて、複数の物体のうちいずれが最近接物体であるかを判断する。 At this time, when a stationary object (an object that is constantly stationary) such as a road surface or a structure is detected at the same time, the control system 23 recognizes the stationary object and obtains the detection result excluding it. Based on this, it is determined which of the plurality of objects is the closest object.

ここでは、図6に示されるフレームに基づいて注目領域を決定しているが、このフレームよりも前のフレームも含めて、参照するフレームの数を増やすことも可能である。例えば、周囲の移動物体の経時的な動きを認識しながら、検出範囲内の物体の次フレーム以降の動線を予測し、車両1等の移動体の制御に反映させることや、静止物体と移動物体の別を判断することが可能となる。 Here, the region of interest is determined based on the frame shown in FIG. 6, but it is also possible to increase the number of frames to be referenced, including frames prior to this frame. For example, while recognizing the movement of a moving object around it over time, the flow line of an object within the detection range after the next frame can be predicted and reflected in the control of a moving object such as a vehicle 1, or it can move with a stationary object. It becomes possible to judge the distinction of an object.

制御系23は、注目モードに移行すると、受光系22の出力信号(受光信号)について、SN比を向上させるために、例えば光源における注目領域へ投光する発光エリアの発光光量を増加させる。発光光量の増加は、当該発光エリアへの駆動電流の振幅やデューティを増加することによってもできるし(前者)、複数の発光点にて1つの発光エリアを構成する光源の場合は、そのうち点灯する発光点数を増やすことでも発光光量を増加させることもできる(後者)。なお、発光エリアへの駆動電流は、変調信号のパルス振幅やデューティ(パルス幅/パルス周期)を調整することにより制御できる。 When the control system 23 shifts to the attention mode, the control system 23 increases the amount of emitted light in the light emitting area of the light source, for example, in order to improve the SN ratio of the output signal (light receiving signal) of the light receiving system 22. The amount of emitted light can be increased by increasing the amplitude and duty of the drive current to the light emitting area (the former), and in the case of a light source that constitutes one light emitting area with a plurality of light emitting points, the light source is turned on. The amount of emitted light can also be increased by increasing the number of emission points (the latter). The drive current to the light emitting area can be controlled by adjusting the pulse amplitude and duty (pulse width / pulse period) of the modulated signal.

ここで、後者の制御について、図7を用いて詳しく説明する。図7には、検出領域の1エリアに投光するための発光点(以下では「ch」と呼ぶ)を36chとしたときの例が示されている。図7(a)及び図7(b)がそれぞれ非注目モードの点灯パターンであり、互いに異なる18chを点灯させる。 Here, the latter control will be described in detail with reference to FIG. FIG. 7 shows an example when the light emitting point (hereinafter referred to as “ch”) for projecting light into one area of the detection region is 36 ch. 7 (a) and 7 (b) are lighting patterns of the non-attention mode, respectively, and 18 channels different from each other are lit.

非注目モードの点灯パターンは、消灯しているch(発光点)の部分が照射抜けにならないように、光学系で弱発散光にするなどして適宜設定することが望ましい。また、chの寿命などの観点から、同じ非注目モードでも、図7(a)の点灯パターンと図7(b)の点灯パターンを交互に切り替えるようchを駆動するのが望ましい。 It is desirable to appropriately set the lighting pattern of the non-attention mode by setting the optical system to weakly divergent light so that the part of the ch (light emitting point) that is off is not missed. Further, from the viewpoint of the life of the ch, it is desirable to drive the ch so as to alternately switch between the lighting pattern of FIG. 7 (a) and the lighting pattern of FIG. 7 (b) even in the same non-attention mode.

非注目モードから、当該エリアが注目領域と判断されたときの点灯パターンが図7(c)に一例として示されている。この点灯パターンは、全36chを点灯させており、注目領域への投光光量を増加させることが可能となる。なお、各chに対応する照射領域(各chから照射される領域)を予め定め、注目領域に照射される投光光量が増加するように点灯するchを制御しても良い。 The lighting pattern when the area is determined to be the area of interest from the non-attention mode is shown as an example in FIG. 7 (c). In this lighting pattern, all 36 channels are lit, and it is possible to increase the amount of projected light to the region of interest. An irradiation region (area irradiated from each channel) corresponding to each channel may be defined in advance, and the channels to be lit may be controlled so that the amount of projected light emitted to the region of interest increases.

ここで、フレームレートが同一の条件下では、1フレームの間に、注目領域を照射する発光エリアの発光周期(発光パルスのパルス周期)を短くしたり、発光デューティ(発光パルスのパルス幅/パルス周期)を大きくすることでも、1フレーム毎の投光光量(1フレーム毎に投光される光の光量)を増加させることが可能である。なお、発光エリアの発光周期や発光デューティは、LD21aを駆動するLD駆動部21bに入力される変調信号のパルス周期やデューティ(パルス幅/パルス周期)を調整することで制御できる。 Here, under the condition that the frame rates are the same, the light emission cycle (pulse cycle of the light emission pulse) of the light emission area that irradiates the region of interest can be shortened or the light emission duty (pulse width / pulse of the light emission pulse) can be shortened during one frame. By increasing the period), it is possible to increase the amount of projected light for each frame (the amount of light projected for each frame). The light emission cycle and light emission duty of the light emission area can be controlled by adjusting the pulse cycle and duty (pulse width / pulse cycle) of the modulation signal input to the LD drive unit 21b that drives the LD 21a.

また、発光周期を変えずに、注目領域に対してのみフレームレートを下げて、1フレーム毎の投光光量を増加することも考えられる。 It is also conceivable to reduce the frame rate only for the region of interest and increase the amount of projected light for each frame without changing the light emission cycle.

そして、非注目モードにおいて受光系22の受光信号をモニタし、注目モードに移行したときに、受光信号の信号レベルが閾値を上回るまで注目領域への投光(照射)を繰り返すことで、物体の有無や、物体までの距離等の物体に関する情報(物体情報)を高精度に検出することができる。 Then, the light receiving signal of the light receiving system 22 is monitored in the non-attention mode, and when the mode shifts to the attention mode, the object is repeatedly projected (irradiated) to the attention region until the signal level of the light receiving signal exceeds the threshold value. Information about an object (object information) such as presence / absence and distance to an object can be detected with high accuracy.

また、受光信号の信号レベルをノイズレベルに対して考慮しても良い。例えば図8(b)に示されるように、ノイズレベルに対して信号レベルがあまり突出していない場合は、注目領域の画素領域毎に連続して複数回の投光を行い、該複数回の受光による受光系22の複数の受光信号を、後段の平均化/積算処理部24aで積算及び又は平均化することにより、信号成分が増大するとともに、ランダムノイズが時間的に積算及び/又は平均化して、ノイズレベルがゼロに近づいていくので、得られた信号(受光信号に基づく信号)のSN比を向上することが可能となる。すなわち、図8(a)に示されるような、ノイズレベルに対して受光信号の信号レベルが十分確保された状態と同様の状態となる。 Further, the signal level of the received signal may be considered with respect to the noise level. For example, as shown in FIG. 8B, when the signal level does not protrude so much with respect to the noise level, light is continuously projected a plurality of times for each pixel region of the region of interest, and the light is received a plurality of times. By integrating and / or averaging the plurality of received signals of the light receiving system 22 by the averaging / integration processing unit 24a in the subsequent stage, the signal components are increased and the random noise is integrated and / or averaged in time. Since the noise level approaches zero, it is possible to improve the SN ratio of the obtained signal (signal based on the received signal). That is, as shown in FIG. 8A, the state is similar to the state in which the signal level of the received signal is sufficiently secured with respect to the noise level.

閾値は、図8(b)の状態からそのまま下げるだけでは、ノイズが検出されるだけで、物体が検出できなくなってしまう。そこで、図8(b)に示されるように、予め想定されている最大のノイズレベルを基準に閾値を設定するのが好ましく、その設定値よりも閾値を下げるためには、受光信号の積算回数を増やして平均化処理をすることによりノイズレベルを下げることが必要となる。もしくは、積算する場合は、積算する回数に応じて、閾値を上下させると同様の効果を奏することができる。具体的には、積算する回数が多いほど閾値を上げ、少ないほど閾値を下げることが好ましい。 If the threshold value is lowered from the state shown in FIG. 8B as it is, only noise is detected and the object cannot be detected. Therefore, as shown in FIG. 8B, it is preferable to set the threshold value based on the maximum noise level assumed in advance, and in order to lower the threshold value below the set value, the number of times the received signal is integrated. It is necessary to reduce the noise level by increasing the number of noise levels and performing the averaging process. Alternatively, in the case of integration, the same effect can be obtained by raising or lowering the threshold value according to the number of integrations. Specifically, it is preferable to raise the threshold value as the number of times of integration increases and decrease the threshold value as the number of integrations decreases.

また、受光系22の検出信号のSN比の向上は、予め光源を点灯させていない状態のノイズレベルを保持しておき、光源を点灯させたときの受光波形から保持したノイズレベル差し引いて反射光パルスの波形(信号光の波形)を抽出することでも実現可能である。 Further, in order to improve the SN ratio of the detection signal of the light receiving system 22, the noise level in the state where the light source is not turned on is held in advance, and the held noise level is subtracted from the received light waveform when the light source is turned on to subtract the reflected light. It can also be realized by extracting the waveform of the pulse (waveform of the signal light).

以上説明したような制御を行うことにより、ノイズなどに対して、注目領域から十分な信号光が得られるため、注目領域に存在する物体Aのノイズによる測距ばらつきを低減し、物体Aまでの距離情報をより高精度に検出することができる。そして、この距離情報により、移動体の減速・停止制御(制動制御)や回避制御(操舵制御)をより精緻に行うことが可能となる。 By performing the control as described above, sufficient signal light can be obtained from the region of interest with respect to noise and the like. Therefore, the distance measurement variation due to the noise of the object A existing in the region of interest is reduced, and the distance measurement variation up to the object A is reduced. Distance information can be detected with higher accuracy. Then, based on this distance information, deceleration / stop control (braking control) and avoidance control (steering control) of the moving body can be performed more precisely.

以上では、物体が検出されている場合について述べてきたが、物体が検出されていない場合に、検出できない物体が存在するかどうかを見極めるために、非注目モードのときに、検出領域全域を注目領域と見做して、高精度にサーチすることが好ましい。 In the above, the case where an object is detected has been described, but when the object is not detected, the entire detection area is focused on in the non-attention mode in order to determine whether or not there is an undetectable object. It is preferable to consider it as an area and search with high accuracy.

これにより、注目領域を設定しなければ検出が困難な、例えば、黒布のような光の反射率が小さいターゲットや、正反射成分が大きくライダ20Aへ反射・散乱してくる光の光量が少ないミラーやガラスのようなもの、角度分解能に対してサイズが小さく光量のロスが大きい小物体なども検出可能となる。これらの物体は、ライダ20Aにある程度近づけば検出できるが、至近距離で検出した場合の措置は、移動体を停止させることに限られてしまう。しかし、移動速度の減速が、許容される停止時間に応じた速度までに制限されてしまい、物体との衝突が懸念される。そこで、物体が至近距離まで近づくよりも前に検出することで、移動体の移動速度の上限を上げることが可能になる上、移動速度を落とさずに回避走行することも可能になる。 As a result, it is difficult to detect unless the region of interest is set, for example, a target with low light reflectance such as black cloth, a large specular reflection component, and a small amount of light reflected / scattered to the rider 20A. It is possible to detect small objects such as mirrors and glass, which are small in size with respect to angular resolution and have a large loss of light intensity. These objects can be detected if they are close to the rider 20A to some extent, but the measures to be taken when they are detected at a close distance are limited to stopping the moving body. However, the deceleration of the moving speed is limited to the speed corresponding to the allowable stop time, and there is a concern of collision with an object. Therefore, by detecting an object before it approaches a close distance, it is possible to raise the upper limit of the moving speed of the moving body, and it is also possible to avoid traveling without reducing the moving speed.

また、例えば、図9(a)に示されるように、注目領域に存在する物体からの信号光を受光したときの受光信号である第1の受光信号の信号レベルが、ノイズレベルよりも充分に大きく設定された閾値1を上回るようにLD21a及び平均化/積算処理部24aの少なくとも一方を制御しても良い。この場合、第1の受光信号の信号レベルのSN比を格段に向上させることができる。さらに、例えば、図9(b)に示されるように、非注目領域に存在する物体からの信号光を受光したときの受光信号である第2の受光信号の信号レベルが、ノイズレベルよりも大きく、かつ閾値1よりも小さく設定された閾値2を上回り、閾値1を下回るようにLD21a及び平均化/積算処理部24aの少なくとも一方を制御しても良い。 Further, for example, as shown in FIG. 9A, the signal level of the first received signal, which is the received signal when the signal light from the object existing in the region of interest is received, is sufficiently higher than the noise level. At least one of the LD 21a and the averaging / integrating processing unit 24a may be controlled so as to exceed a large set threshold value 1. In this case, the signal-to-noise ratio of the signal level of the first received signal can be remarkably improved. Further, for example, as shown in FIG. 9B, the signal level of the second light receiving signal, which is the light receiving signal when the signal light from the object existing in the non-attention region is received, is larger than the noise level. At least one of the LD 21a and the averaging / integration processing unit 24a may be controlled so as to exceed the threshold value 2 set to be smaller than the threshold value 1 and fall below the threshold value 1.

結果として、第1の受光信号の信号レベルを第2の受光信号の信号レベルよりも大きくできる。また、第1の受光信号のSN比を第2の受光信号のSN比よりも大きくできる。 As a result, the signal level of the first received signal can be made higher than the signal level of the second received signal. Further, the SN ratio of the first received light signal can be made larger than the SN ratio of the second received light signal.

なお、第1の受光信号の信号レベルを、閾値1に代えて閾値2を基準に制御しても良い。 The signal level of the first received signal may be controlled based on the threshold value 2 instead of the threshold value 1.

以下に、第1実施形態のライダ20Aについて、より詳細な説明を行う。
〈詳細〉
《投光系》
図2に戻り、投光系21は、一例として、YZ平面に沿って2次元配置された複数の発光点から成る発光点アレイを有するLD21a(レーザダイオード)と、各発光点を独立に駆動可能なLD駆動部21bとを含む。LD駆動部21bには、制御系23から発光点毎の変調信号(パルス信号)が入力される。LD駆動部21bは、発光点毎の変調信号が入力されると該変調信号に応じた駆動電流を該発光点に供給する。このとき、発光点から車両1の前方である+X方向に発光パルスが射出される。LD21aから射出された光が投光系21から投光された光である。各発光点からの光は、所定の拡散角で広がりながら進行する。LD21aからの全ての光の光路上であってYZ平面に平行な領域を「検出領域」や「投光範囲」と呼ぶ。複数の発光点は、検出領域の複数の画素領域に1対1で対応する。
Hereinafter, the rider 20A of the first embodiment will be described in more detail.
<detail>
《Light projection system》
Returning to FIG. 2, as an example, the floodlight system 21 can independently drive each light emitting point with an LD21a (laser diode) having a light emitting point array composed of a plurality of light emitting points arranged two-dimensionally along a YZ plane. LD drive unit 21b and the like. A modulation signal (pulse signal) for each light emitting point is input from the control system 23 to the LD drive unit 21b. When the modulation signal for each light emitting point is input, the LD drive unit 21b supplies the driving current corresponding to the modulation signal to the light emitting point. At this time, an emission pulse is emitted from the emission point in the + X direction in front of the vehicle 1. The light emitted from the LD 21a is the light projected from the light projecting system 21. The light from each light emitting point travels while spreading at a predetermined diffusion angle. A region on the optical path of all the light from the LD21a and parallel to the YZ plane is referred to as a "detection region" or a "light projection range". The plurality of light emitting points correspond to a plurality of pixel regions of the detection region on a one-to-one basis.

なお、LD21aの安全性やLD21aの耐久性の観点からLD21aの各発光点の発光デューティ(発光時間/発光周期)が制限されるため、発光パルスはパルス幅が狭い方が望ましく、該パルス幅は、一般に数ns〜数十ns程度に設定される。また、発光パルスのパルス間隔は一般に数十μ秒程度である。 Since the emission duty (emission time / emission cycle) at each emission point of the LD21a is limited from the viewpoint of the safety of the LD21a and the durability of the LD21a, it is desirable that the emission pulse has a narrow pulse width, and the pulse width is the same. , Generally, it is set to about several ns to several tens of ns. The pulse interval of the emission pulse is generally about several tens of microseconds.

また、LD21aからの光を例えばレンズを介して投光することにより、検出領域の大きさを調整することができる。例えば、検出領域を広げたい場合は凹パワーのカップリングレンズをLD21aからの光の光路上に設け、狭めたい場合は凸パワーのカップリングレンズをLD21aからの光の光路上に設けても良い。 Further, the size of the detection region can be adjusted by projecting the light from the LD21a through, for example, a lens. For example, if it is desired to widen the detection region, a concave power coupling lens may be provided on the optical path of the light from the LD21a, and if it is desired to be narrowed, a convex power coupling lens may be provided on the optical path of the light from the LD21a.

また、LD21aの発光点が持つ発光領域が無視できない場合は、検出領域に応じて、無限遠でLD発光領域の共役像が現れるようなカップリング状態とし、投光分布を均一にしやすくすることもできる。投光分布に関しては、切妻型の面など、種々の光学素子形状を用いて、制御することが可能である。 Further, when the light emitting region of the light emitting point of the LD21a cannot be ignored, a coupling state is set so that a conjugate image of the LD light emitting region appears at infinity according to the detection region, so that the light projection distribution can be easily made uniform. can. The light projection distribution can be controlled by using various optical element shapes such as a gable-shaped surface.

また、検出領域を広げる場合は、マイクロレンズアレイやすりガラスのような拡散板の機能を持つ光学素子をLD21aからの光の光路上に配置しても良い。 Further, when expanding the detection region, an optical element having a function of a diffuser such as a microlens array or frosted glass may be arranged on the optical path of the light from the LD21a.

ここで、光源としては、LDに限らず、例えば面発光レーザ(VCSEL)、LEDなど、種々の光源が代用可能である。 Here, the light source is not limited to the LD, and various light sources such as a surface emitting laser (VCSEL) and an LED can be substituted.

《受光系》
受光系22は、一例として、単一の受光エリアを有する受光素子22a、結像光学系22b、電流電圧変換器22cを含む。
《Light receiving system》
As an example, the light receiving system 22 includes a light receiving element 22a having a single light receiving area, an imaging optical system 22b, and a current-voltage converter 22c.

図4では、投光系21と受光系22が、Y軸方向に並置されているが、Z軸方向に積層されても良い。 In FIG. 4, the light projecting system 21 and the light receiving system 22 are juxtaposed in the Y-axis direction, but they may be stacked in the Z-axis direction.

受光素子としては、PD(photodiode)やAPD(avalanche photodiode)、ガイガーモードAPDであるSPAD(single photon avalanche diode)、TOF(Time of Flight)演算機能を画素毎に有するCMOS撮像素子(以降、TOFセンサ)等がある。APDやSPADはPDに対して感度が高いため、検出精度や検出距離の点で有利であり、望ましい。そこで、第1実施形態では、受光素子22aとしてAPDを用いている。 As the light receiving element, a CMOS imaging device (hereinafter, TOF sensor) having a PD (photodiode), an APD (avalanche photodiode), a Geiger mode APD SPAD (single photodiode avalanche diode), and a TOF (Time of Flight) calculation function for each pixel. ) Etc. Since APD and SPAD have high sensitivity to PD, they are advantageous in terms of detection accuracy and detection distance, and are desirable. Therefore, in the first embodiment, the APD is used as the light receiving element 22a.

ここで、検出領域内に物体がある場合、光源からの光ビームが、物体で反射したり散乱したりする。その反射光や散乱光は、結像光学系22bによって受光素子22aに集光する。結像光学系22bはレンズ系やミラー系、その他、受光素子22aへ光を集光可能な構成であれば良い。受光素子22aの出力電流は、電流電圧変換器22cで電圧信号(受光信号)に変換され、該電圧信号は信号処理系24に送られる。ここでは、受光素子22a及び電流電圧変換器22cを含んで「光検出器」が構成される。なお、光検出器は、光検出可能な構成を有するものであれば良く、例えば光入射により生じた熱を検知して光検出するものであっても良い。 Here, when there is an object in the detection area, the light beam from the light source is reflected or scattered by the object. The reflected light and scattered light are collected on the light receiving element 22a by the imaging optical system 22b. The imaging optical system 22b may have a configuration capable of condensing light on a lens system, a mirror system, or other light receiving element 22a. The output current of the light receiving element 22a is converted into a voltage signal (light receiving signal) by the current-voltage converter 22c, and the voltage signal is sent to the signal processing system 24. Here, a "photodetector" is configured including a light receiving element 22a and a current-voltage converter 22c. The photodetector may have a structure capable of detecting light, and may be, for example, a photodetector that detects heat generated by light incident and detects light.

LD21aの複数の発光点を順次点灯し、点灯毎に受光信号の有無をモニタすることにより、受光信号に対応する発光点(物体からの反射光に対応する発光点)を特定することができる。そこで、特定された発光点のアレイ内における位置から、検出領域における物体が存在する画素領域を特定でき、ひいては該物体の位置情報を求めることができる。 By sequentially lighting a plurality of light emitting points of the LD21a and monitoring the presence or absence of a light receiving signal for each lighting, a light emitting point corresponding to the light receiving signal (light emitting point corresponding to the reflected light from an object) can be specified. Therefore, from the position of the specified light emitting point in the array, the pixel region in which the object exists in the detection region can be specified, and the position information of the object can be obtained.

《信号処理系》
信号処理系24は、一例として、平均化/積算処理部24a、二値化処理部24bを含む。
<< Signal processing system >>
As an example, the signal processing system 24 includes an averaging / integrating processing unit 24a and a binarization processing unit 24b.

平均化/積算処理部24aは、受光系22から順次出力される複数の受光信号を平均化及び/又は積算し、得られた信号を二値化処理部24bに出力する。 The averaging / integration processing unit 24a averages and / or integrates a plurality of light receiving signals sequentially output from the light receiving system 22, and outputs the obtained signal to the binarization processing unit 24b.

二値化処理部24bは、信号検出用の閾値が設定され、入力信号の信号レベルが閾値よりも大きい場合に入力信号を二値化し(検出し)、その二値化信号を検出信号として制御系23に出力する。 The binarization processing unit 24b binarizes (detects) the input signal when a threshold value for signal detection is set and the signal level of the input signal is higher than the threshold value, and controls the binarized signal as a detection signal. Output to system 23.

なお、信号処理系24において、平均化/積算処理部24aを省略することもできる。すなわち、受光系22から受光信号を二値化処理部24bに直接出力しても良い。 In the signal processing system 24, the averaging / integrating processing unit 24a can be omitted. That is, the light receiving signal may be directly output from the light receiving system 22 to the binarization processing unit 24b.

《制御系》
制御系23は、一例として、測定制御部23a、注目領域設定部23c、時間計測部23d、距離演算部23eを含む。
《Control system》
As an example, the control system 23 includes a measurement control unit 23a, a region of interest setting unit 23c, a time measurement unit 23d, and a distance calculation unit 23e.

測定制御部23aは、監視制御装置30から測定開始要求を受けると、変調信号(パルス信号)を生成し、該変調信号をLD駆動部21b及び時間計測部23dに出力する。測定制御部23aは、必要に応じて変調信号のパルス振幅、パルス周期及びパルス幅の少なくとも1つを調整する。 Upon receiving the measurement start request from the monitoring control device 30, the measurement control unit 23a generates a modulation signal (pulse signal) and outputs the modulation signal to the LD drive unit 21b and the time measurement unit 23d. The measurement control unit 23a adjusts at least one of the pulse amplitude, pulse period, and pulse width of the modulated signal, if necessary.

また、測定制御部23aは、後述する閾値設定処理において、受光信号を二値化(検出)するための閾値を設定し、その設定情報(閾値設定情報)を二値化処理部24bに出力する。 Further, the measurement control unit 23a sets a threshold value for binarizing (detecting) the received light signal in the threshold value setting process described later, and outputs the setting information (threshold value setting information) to the binarization processing unit 24b. ..

また、測定制御部23aは、信号処理系24からの検出信号の有無によって検出領域における物体の有無を判定し「有り」と判定した場合に該検出信号に基づいて物体の位置情報を求め、必要に応じて注目領域設定要求と物体の位置情報を注目領域設定部23cに送る。 Further, the measurement control unit 23a determines the presence / absence of an object in the detection region based on the presence / absence of the detection signal from the signal processing system 24, and when it is determined to be "presence", obtains the position information of the object based on the detection signal and is required. The attention area setting request and the position information of the object are sent to the attention area setting unit 23c according to the above.

注目領域設定部23cは、測定制御部23aからの注目領域設定要求及び物体の位置情報を受け取ると、該位置情報に基づいて検出領域における物体が存在する少なくとも1つの領域を注目領域として設定し、その設定情報である注目領域設定情報を測定制御部23aに出力する。 Upon receiving the attention area setting request from the measurement control unit 23a and the position information of the object, the attention area setting unit 23c sets at least one area in the detection area where the object exists as the attention area based on the position information. The attention area setting information, which is the setting information, is output to the measurement control unit 23a.

時間計測部23dは、二値化処理部24bからの、画素領域毎の検出信号(二値化信号)に基づいて受光素子22aでの受光タイミングを求め、該受光タイミングと測定制御部23aからの変調信号の立ち上がりタイミングとの時間差を求め、該時間差を計測時間として距離演算部23eに出力する。受光タイミングの求め方としては、例えば受光信号が閾値を横切る2つのタイミングの間のタイミング(例えば中間タイミング)や、受光信号が閾値を下から上に横切るタイミングとすることが考えられる。 The time measurement unit 23d obtains the light reception timing at the light receiving element 22a based on the detection signal (binarization signal) for each pixel region from the binarization processing unit 24b, and the light reception timing and the measurement control unit 23a The time difference from the rising timing of the modulated signal is obtained, and the time difference is output to the distance calculation unit 23e as the measurement time. As a method of obtaining the light receiving timing, for example, a timing between two timings at which the light receiving signal crosses the threshold value (for example, an intermediate timing) or a timing at which the light receiving signal crosses the threshold value from the bottom to the top can be considered.

距離演算部23eは、時間計測部23dからの画素領域毎の計測時間を距離に変換することで物体までの往復距離を求め、該往復距離の1/2を距離データとして監視制御装置30に出力し、さらに必要に応じて測定制御部23aにも出力する。距離演算部23eからの画素領域毎の距離データは、全体として上述した距離画像を構成する。 The distance calculation unit 23e obtains the round-trip distance to the object by converting the measurement time for each pixel region from the time measurement unit 23d into a distance, and outputs 1/2 of the round-trip distance as distance data to the monitoring control device 30. Then, if necessary, it is also output to the measurement control unit 23a. The distance data for each pixel area from the distance calculation unit 23e constitutes the above-mentioned distance image as a whole.

監視制御装置30は、距離演算部23eからの距離データ(距離画像)に基づいて例えば車両1の操舵制御(例えばオートステアリング)、速度制御(例えばオートブレーキ)等を行う。 The monitoring control device 30 performs, for example, steering control (for example, auto steering), speed control (for example, auto braking) of the vehicle 1 based on the distance data (distance image) from the distance calculation unit 23e.

以下に、測定制御部23aによって実施される閾値設定処理について、図10のフローチャートを参照して説明する。この閾値設定処理は定期的に(例えば数分〜数時間毎に)行われる。 The threshold value setting process performed by the measurement control unit 23a will be described below with reference to the flowchart of FIG. This threshold setting process is performed periodically (for example, every few minutes to several hours).

《閾値設定処理》
最初のステップU1では、外乱ノイズレベルを取得する。具体的には、LD21aが発光していないときの受光素子22aの出力を外乱ノイズ(例えば太陽光、照明光等の外乱光によるノイズ、回路ノイズ等)のノイズレベルとして取得する。
<< Threshold setting process >>
In the first step U1, the disturbance noise level is acquired. Specifically, the output of the light receiving element 22a when the LD21a is not emitting light is acquired as a noise level of disturbance noise (for example, noise due to disturbance light such as sunlight or illumination light, circuit noise, etc.).

次のステップU2では、取得した外乱ノイズレベルをメモリに保存する。 In the next step U2, the acquired disturbance noise level is saved in the memory.

次のステップU3では、受光信号を二値化するための閾値を設定する。具体的には、投光範囲全域に対して外乱ノイズレベル(より正確には外乱ノイズレベルの最大値)よりも大きい閾値thを一律に設定し、その設定情報を二値化処理部24bに送る。 In the next step U3, a threshold value for binarizing the received signal is set. Specifically, a threshold value th larger than the disturbance noise level (more accurately, the maximum value of the disturbance noise level) is uniformly set for the entire projection range, and the setting information is sent to the binarization processing unit 24b. ..

以下に、上記第1実施形態のライダ20Aを用いて物体に関する情報を検出する物体検出処理1について説明する。 Hereinafter, the object detection process 1 for detecting information about an object using the rider 20A of the first embodiment will be described.

《物体検出処理1》
物体検出処理1を、図11を参照して説明する。図11のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理1は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 1 >>
The object detection process 1 will be described with reference to FIG. The flowchart of FIG. 11 is based on a processing algorithm executed by the measurement control unit 23a. The object detection process 1 is started when a measurement start request is received from the monitoring control device 30. The monitoring control device 30 sends a measurement start request to the rider 20A, for example, when the electric system of the vehicle 1 on which the rider 20A is mounted is turned on.

最初のステップS1では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLD21aの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。 In the first step S1, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD21a of the light projecting system 21 are sequentially pulsed. That is, a modulation signal having the same pulse amplitude, pulse width, and pulse period between the light emitting points is applied to the LD drive unit 21b at different timings, and each light emitting point of the LD 21a is made to emit light at different timings with the same amount of light emitted.

次のステップS2では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、「無し」のときは「物体なし」と判断する。ステップS2での判断が肯定されるとステップS3に移行し、否定されると同じ判断を再び行う。 In the next step S2, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence / absence of the detection signal from the binarization processing unit 24b is monitored, and when the detection signal is "present", it is determined to be "with an object", and when it is "absent", it is determined to be "no object". If the judgment in step S2 is affirmed, the process proceeds to step S3, and if the judgment is denied, the same judgment is made again.

ステップS3では、物体が存在する領域を特定する。具体的には、ステップS2における検出信号の生成に関与した複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S3, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S2 are specified. That is, the position information of the object is specified.

次のステップS4では、物体が複数か否かを判断する。具体的には、ステップS3で特定された複数の画素領域から成る箇所が複数箇所あるか否かで判断する。ここでの判断が否定されるとステップS5に移行し、肯定されるとステップS8に移行する。 In the next step S4, it is determined whether or not there are a plurality of objects. Specifically, it is determined whether or not there are a plurality of locations composed of the plurality of pixel regions specified in step S3. If the judgment here is denied, the process proceeds to step S5, and if affirmed, the process proceeds to step S8.

ステップS5では、物体までの距離を取得する。具体的には、ステップS2における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S5, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S2 is acquired.

ステップS6では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS7に移行し、否定されるとステップS13に移行する。 In step S6, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S7, and if denied, the process proceeds to step S13.

ステップS7では、物体が存在する領域を注目領域として設定する。ステップS7が実行されると、ステップS11に移行する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。 In step S7, the area where the object exists is set as the area of interest. When step S7 is executed, the process proceeds to step S11. Specifically, the attention area setting request and the position information of the object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the object surrounding the object as the attention area, and outputs the setting information to the measurement control unit 23a.

ステップS8では、各物体までの距離を取得する。具体的には、ステップS2における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S8, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S2 is acquired.

次のステップS9では、最近接物体(ライダ20Aに最も近い物体)までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS10に移行し、否定されるとステップS13に移行する。 In the next step S9, it is determined whether or not the distance to the closest object (the object closest to the rider 20A) is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S10, and if denied, the process proceeds to step S13.

ステップS10では、最近接物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と最近接物体の位置情報を送る。このとき、注目領域設定部23cは、最近接物体を囲む該最近接物体よりも幾分大きい領域を注目領域として設定する(図6参照)。ステップS10が実行されると、ステップS11に移行する。 In step S10, the region where the closest object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the closest object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the closest object surrounding the closest object as the attention area (see FIG. 6). When step S10 is executed, the process proceeds to step S11.

ステップS11では、「SN比維持向上処理」を実施する。SN比維持向上処理の詳細は後述する。 In step S11, the “SN ratio maintenance / improvement process” is carried out. Details of the SN ratio maintenance / improvement process will be described later.

ステップS12では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。ステップS12が実行されると、ステップS13に移行する。 In step S12, the distance to each pixel region of the object of interest (the object existing in the region of interest) is calculated. The total of the calculated distances is the distance image of the object of interest. When step S12 is executed, the process proceeds to step S13.

ステップS13では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS13での判断が肯定されるとフローは終了し、否定されるとステップS2に戻る。 In step S13, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device 30, and is denied when the measurement end request is not received. The monitoring control device 30 sends, for example, a measurement end request to the measurement control unit 23a when the electric system of the vehicle 1 on which the rider 20A is mounted is turned off. If the determination in step S13 is affirmed, the flow ends, and if denied, the process returns to step S2.

以上説明した物体検出処理1では、特にライダ20Aの射程範囲(射程距離)にある最近接物体に対してSN比を上げながら重点的に測定を行うことで、該最近接物体の位置、大きさ、形状等の情報を精度良く検出できる。 In the object detection process 1 described above, the position and size of the closest object are measured by focusing on the closest object in the range (range) of the rider 20A while increasing the SN ratio. , Shape and other information can be detected with high accuracy.

次に、上記ステップS11における「SN比維持向上処理」の具体例である「SN比維持向上処理1」、「SN比維持向上処理2」、「SN比維持向上処理3」について説明する。 Next, "SN ratio maintenance / improvement process 1", "SN ratio maintenance / improvement process 2", and "SN ratio maintenance / improvement process 3", which are specific examples of the "SN ratio maintenance / improvement process" in step S11, will be described.

《SN比維持向上処理1》
以下に、SN比維持向上処理1について図12を参照して説明する。図12のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。ここでは、信号処理系24は、平均化/積算処理部24aを有していない。
<< Maintenance and improvement process of SN ratio 1 >>
The SN ratio maintenance / improvement process 1 will be described below with reference to FIG. The flowchart of FIG. 12 is based on a processing algorithm executed by the measurement control unit 23a. Here, the signal processing system 24 does not have the averaging / integrating processing unit 24a.

最初のステップT1では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT1での判断が肯定されるとフローは終了し、否定されるとステップT2に移行する。 In the first step T1, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the binarization processing unit 24b is monitored. In the binarization processing unit 24b, when a light receiving signal having a signal level higher than the threshold value th is input, the light receiving signal is binarized, and the binarized signal is output as a detection signal. If the judgment in step T1 is affirmed, the flow ends, and if it is denied, the process proceeds to step T2.

ステップT2では、注目領域に対する投光光量を上げる。具体的には、注目領域に対応する全ての発光点に対応する変調信号のパルス振幅を大きくする。ここでは、注目領域に対する投光光量を、上記物体検出処理1のステップS1での投光光量である通常の投光光量よりも大きくする。なお、上記物体検出処理1のステップS1において一部の発光点のみを発光させる場合、ステップT2において発光させる発光点の数を多くしても良い。 In step T2, the amount of projected light with respect to the region of interest is increased. Specifically, the pulse amplitude of the modulated signal corresponding to all the light emitting points corresponding to the region of interest is increased. Here, the amount of light projected on the region of interest is made larger than the amount of normal light projected, which is the amount of light projected in step S1 of the object detection process 1. When only a part of the light emitting points are made to emit light in step S1 of the object detection process 1, the number of light emitting points to be made to emit light in step T2 may be increased.

次のステップT3では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT3での判断が肯定されるとステップT4に移行し、否定されるとステップT2に戻る。 In the next step T3, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the binarization processing unit 24b is monitored. In the binarization processing unit 24b, when a light receiving signal having a signal level higher than the threshold value th is input, the light receiving signal is binarized, and the binarized signal is output as a detection signal. If the judgment in step T3 is affirmed, the process proceeds to step T4, and if denied, the process returns to step T2.

このように、ステップT2、T3によって、注目物体からの反射光による受光信号が検出されるまで、注目領域への投光光量が上げられる。この結果、受光信号のSN比を向上させることができる。一方、ステップT1での判断が肯定されたときは、受光信号のSN比が維持されることになる。なお、ステップT2を複数回行う場合には、回を追うごとに投光光量が上がることになる。 In this way, in steps T2 and T3, the amount of projected light to the region of interest is increased until the received signal due to the reflected light from the object of interest is detected. As a result, the SN ratio of the received signal can be improved. On the other hand, when the determination in step T1 is affirmed, the SN ratio of the received signal is maintained. When step T2 is performed a plurality of times, the amount of projected light increases as the steps T2 are repeated.

次のステップT4では、注目領域に対する投光光量を通常の投光光量に戻す。ステップT4が実行されると、フローは終了する。 In the next step T4, the amount of projected light for the region of interest is returned to the normal amount of projected light. When step T4 is executed, the flow ends.

《SN比維持向上処理2》
以下に、SN比維持向上処理2について図13を参照して説明する。図13のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。ここでは、信号処理系24は、平均化/積算処理部24aを有している。
<< Maintenance and improvement process of SN ratio 2 >>
The SN ratio maintenance / improvement process 2 will be described below with reference to FIG. The flowchart of FIG. 13 is based on a processing algorithm executed by the measurement control unit 23a. Here, the signal processing system 24 has an averaging / integrating processing unit 24a.

最初のステップT11では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT11での判断が肯定されるとフローは終了し、否定されるとステップT12に移行する。 In the first step T11, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the binarization processing unit 24b is monitored. In the binarization processing unit 24b, when a light receiving signal having a signal level higher than the threshold value th is input, the light receiving signal is binarized, and the binarized signal is output as a detection signal. If the judgment in step T11 is affirmed, the flow ends, and if it is denied, the process proceeds to step T12.

ステップT12では、注目領域に対する投光周期を短くする。具体的には、注目領域に対応する全ての発光点に対応する変調信号のパルス周期を短くする(周波数を高くする)。ここでは、注目領域に対する投光周期を、物体検出処理1のステップS1での投光周期である通常の投光周期では1フレーム毎に1回投光するところ、1フレーム毎に複数回投光されるように投光周期が短く設定される。 In step T12, the photoperiod with respect to the region of interest is shortened. Specifically, the pulse period of the modulated signal corresponding to all the light emitting points corresponding to the region of interest is shortened (the frequency is increased). Here, the photoperiod for the region of interest is projected once per frame in the normal projectile cycle, which is the projecting cycle in step S1 of the object detection process 1, but is projected a plurality of times per frame. The photoperiod is set short so that it is.

次のステップT13では、注目物体からの反射光による受光信号を平均化及び/又は積算する。具体的には、1フレーム毎に、複数回の投光による複数回の受光で得られた複数の受光信号を平均化及び/又は積算する。これにより、受光信号のSN比を向上させることができる。一方、ステップT11での判断が肯定されたときは、受光信号のSN比が維持されることになる。なお、受光素子22aからの信号電荷を蓄積するコンデンサを設ければ、1フレーム毎に、複数の受光信号の信号電荷をコンデンサに蓄積し、蓄積された信号電荷を一気に出力することができる。 In the next step T13, the received signal due to the reflected light from the object of interest is averaged and / or integrated. Specifically, for each frame, a plurality of received light signals obtained by receiving a plurality of times by flooding a plurality of times are averaged and / or integrated. Thereby, the SN ratio of the received signal can be improved. On the other hand, when the determination in step T11 is affirmed, the SN ratio of the received signal is maintained. If a capacitor for accumulating the signal charge from the light receiving element 22a is provided, the signal charge of a plurality of light receiving signals can be accumulated in the capacitor for each frame, and the accumulated signal charge can be output at once.

次のステップT14では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT14での判断が肯定されるとステップT15に移行し、否定されるとステップT12に戻る。 In the next step T14, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the binarization processing unit 24b is monitored. In the binarization processing unit 24b, when a light receiving signal having a signal level higher than the threshold value th is input, the light receiving signal is binarized, and the binarized signal is output as a detection signal. If the judgment in step T14 is affirmed, the process proceeds to step T15, and if denied, the process returns to step T12.

このように、ステップT12〜T14によって、注目物体からの反射光による受光信号が検出されるまで、注目領域に対する投光周期が短くされる。すなわち、1フレーム毎に平均化及び/又は積算される受光信号の数が増加される。ステップT12を複数回行う場合は、回を追うごとに、1フレーム毎の投光周期が短くなり受光回数が増えて平均化及び/又は積算される受光信号の数も増えることになる。 In this way, the projection period for the region of interest is shortened until the received signal due to the reflected light from the object of interest is detected by steps T12 to T14. That is, the number of received signals that are averaged and / or integrated is increased for each frame. When step T12 is performed a plurality of times, the photoperiod cycle for each frame becomes shorter, the number of times of light reception increases, and the number of light-receiving signals averaged and / or integrated increases as the times are repeated.

次のステップT15では、注目領域に対する投光周期を元の値(通常の投光周期)に戻す。ステップT15が実行されると、フローは終了する。 In the next step T15, the photoperiod for the region of interest is returned to the original value (normal photoperiod). When step T15 is executed, the flow ends.

《SN比維持向上処理3》
以下に、SN比維持向上処理3について図14を参照して説明する。図14のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。ここでは、信号処理系24は、平均化/積算処理部24aを有している。
<< SN ratio maintenance and improvement processing 3 >>
The SN ratio maintenance / improvement process 3 will be described below with reference to FIG. The flowchart of FIG. 14 is based on a processing algorithm executed by the measurement control unit 23a. Here, the signal processing system 24 has an averaging / integrating processing unit 24a.

最初のステップT21では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT21での判断が肯定されるとフローは終了し、否定されるとステップT22に移行する。 In the first step T21, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the binarization processing unit 24b is monitored. In the binarization processing unit 24b, when a light receiving signal having a signal level higher than the threshold value th is input, the light receiving signal is binarized, and the binarized signal is output as a detection signal. If the judgment in step T21 is affirmed, the flow ends, and if it is denied, the process proceeds to step T22.

ステップT22では、注目領域に対するフレームレートを下げる。具体的には、注目領域に対するフレームレートを、物体検出処理1のステップS1でのフレームレートである通常のフレームレートでは1フレーム毎に1回受光するところ、注目領域において1フレーム毎に複数回受光するようにフレームレートを下げる。 In step T22, the frame rate with respect to the region of interest is lowered. Specifically, the frame rate for the region of interest is received once per frame at the normal frame rate, which is the frame rate in step S1 of the object detection process 1, but is received a plurality of times per frame in the region of interest. Decrease the frame rate so that it does.

次のステップT23では、注目物体からの反射光による受光信号を平均化及び/又は積算する。具体的には、1フレーム毎に、複数回の受光で得られた複数の受光信号を平均化及び/又は積算する。これにより、受光信号のSN比を向上させることができる。一方、ステップT21での判断が肯定されたときは、受光信号のSN比が維持されることになる。なお、受光素子22aからの電荷を蓄積するコンデンサを設ければ、1フレーム毎に、複数の受光信号の信号電荷をコンデンサに蓄積し、蓄積された信号電荷を一気に出力することができる。 In the next step T23, the received signal due to the reflected light from the object of interest is averaged and / or integrated. Specifically, for each frame, a plurality of received light signals obtained by receiving a plurality of times of light reception are averaged and / or integrated. Thereby, the SN ratio of the received signal can be improved. On the other hand, when the determination in step T21 is affirmed, the SN ratio of the received signal is maintained. If a capacitor for accumulating the electric charge from the light receiving element 22a is provided, the signal charge of a plurality of light receiving signals can be accumulated in the capacitor for each frame, and the accumulated signal charge can be output at once.

次のステップT24では、注目物体からの反射光による受光信号が検出されたか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタする。二値化処理部24bでは、閾値thよりも信号レベルが大きい受光信号が入力されたときに該受光信号が二値化され、その二値化信号が検出信号として出力される。ステップT24での判断が肯定されるとステップT25に移行し、否定されるとステップT22に戻る。 In the next step T24, it is determined whether or not the received signal due to the reflected light from the object of interest is detected. Specifically, the presence / absence of a detection signal from the binarization processing unit 24b is monitored. In the binarization processing unit 24b, when a light receiving signal having a signal level higher than the threshold value th is input, the light receiving signal is binarized, and the binarized signal is output as a detection signal. If the judgment in step T24 is affirmed, the process proceeds to step T25, and if denied, the process returns to step T22.

このように、ステップT22〜T24によって、注目物体からの反射光による受光信号が検出されるまで、注目領域に対するフレームレートが下げられる。この結果、受光信号のSN比を向上させることができる。すなわち、1フレーム毎に平均化及び/又は積算される受光信号の数が増加される。ステップT22を複数回行う場合は、回を追うごとにフレームレートが下げられ受光回数が増えて平均化及び/又は積算される受光信号の数も増えることになる。 In this way, in steps T22 to T24, the frame rate with respect to the region of interest is lowered until the received signal due to the reflected light from the object of interest is detected. As a result, the SN ratio of the received signal can be improved. That is, the number of received signals that are averaged and / or integrated is increased for each frame. When step T22 is performed a plurality of times, the frame rate is lowered and the number of times of receiving light is increased, and the number of received light signals to be averaged and / or integrated is also increased.

次のステップT25では、注目領域に対するフレームレートを元の値(通常のフレームレート)に戻す。ステップT25が実行されると、フローは終了する。 In the next step T25, the frame rate for the region of interest is returned to the original value (normal frame rate). When step T25 is executed, the flow ends.

なお、SN比維持向上処理1の投光光量を上げることと、SN比維持向上処理2の投光周期を短くすることと、SN比維持向上処理3のフレームレートを下げることと、の少なくとも2つを組み合わせて、SN比維持向上処理4を構成しても良い。 It should be noted that at least two of increasing the amount of light projected by the SN ratio maintenance and improvement process 1, shortening the projectile period of the SN ratio maintenance and improvement process 2, and lowering the frame rate of the SN ratio maintenance and improvement process 3. The SN ratio maintenance / improvement process 4 may be configured by combining the two.

以下に、第1実施形態のライダ20Aを用いて物体に関する情報を検出する物体検出処理2〜6について説明する。 Hereinafter, object detection processes 2 to 6 for detecting information about an object using the rider 20A of the first embodiment will be described.

《物体検出処理2》
物体検出処理2を、図15を参照して説明する。図15のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理2は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 2 >>
The object detection process 2 will be described with reference to FIG. The flowchart of FIG. 15 is based on a processing algorithm executed by the measurement control unit 23a. The object detection process 2 is started when a measurement start request is received from the monitoring control device 30. The monitoring control device 30 sends a measurement start request to the rider 20A, for example, when the electric system of the vehicle 1 on which the rider 20A is mounted is turned on.

最初のステップS21では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。 In the first step S21, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting system 21 are sequentially pulsed. That is, a modulation signal having the same pulse amplitude, pulse width, and pulse period between the light emitting points is applied to the LD drive unit 21b at different timings, and each light emitting point of the LD 21a is made to emit light at different timings with the same amount of light emitted.

次のステップS22では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS22での判断が肯定されるとステップS22.5に移行し、否定されると同じ判断を再び行う。 In the next step S22, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the binarization processing unit 24b is monitored, and when the detection signal is "present", it is determined to be "with an object", and when the detection signal is "absent", it is determined to be "no object". do. If the judgment in step S22 is affirmed, the process proceeds to step S22.5, and if the judgment is denied, the same judgment is made again.

ステップS22.5では、物体が存在する領域を特定する。具体的には、ステップS22における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S22.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S22 are specified. That is, the position information of the object is specified.

ステップS23では、移動物体があるか否かを判断する。例えば距離画像の連続する複数のフレームにおける物体の位置とフレームレートから、物体とライダ20Aの相対速度の変化を算出し、該変化が基準値以上の場合に該物体を「移動物体」と判定し、該基準値未満の場合に該物体を「静止物体」と判定する。ステップS23での判断が否定されるとステップS24に移行し、肯定されるとステップS27に移行する。 In step S23, it is determined whether or not there is a moving object. For example, the change in the relative velocity between the object and the rider 20A is calculated from the position and frame rate of the object in a plurality of consecutive frames of the distance image, and when the change is equal to or more than the reference value, the object is determined to be a "moving object". If it is less than the reference value, the object is determined to be a "stationary object". If the determination in step S23 is denied, the process proceeds to step S24, and if affirmed, the process proceeds to step S27.

ステップS24では、物体までの距離を取得する。具体的には、ステップS22における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S24, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S22.

次のステップS25では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS26に移行し、否定されるとステップS33に移行する。 In the next step S25, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S26, and if denied, the process proceeds to step S33.

次のステップS26では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS26が実行されると、ステップS31に移行する。 In the next step S26, the region where the object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the object surrounding the object as the attention area, and outputs the setting information to the measurement control unit 23a. When step S26 is executed, the process proceeds to step S31.

ステップS27では、移動物体が複数か否かを判断する。具体的には、ステップS23で判定された移動物体の数が複数か否かを判断する。ここでの判断が否定されるとステップS24に移行し、肯定されるとステップS28に移行する。 In step S27, it is determined whether or not there are a plurality of moving objects. Specifically, it is determined whether or not the number of moving objects determined in step S23 is plural. If the determination here is denied, the process proceeds to step S24, and if affirmed, the process proceeds to step S28.

ステップS28では、各物体までの距離を取得する。具体的には、ステップS22における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S28, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S22.

次のステップS29では、最近接移動物体(ライダ20Aに最も近い移動物体)までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS30に移行し、否定されるとステップS33に移行する。 In the next step S29, it is determined whether or not the distance to the closest moving object (moving object closest to the rider 20A) is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S30, and if denied, the process proceeds to step S33.

ステップS30では、最近接移動物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と最近接移動物体の位置情報を送る。このとき、注目領域設定部23cは、最近接移動物体を囲む該最近接移動物体よりも幾分大きい領域を注目領域として設定する(図6参照)。 In step S30, the region where the closest moving object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the closest moving object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the closest moving object surrounding the closest moving object as the attention area (see FIG. 6).

次のステップS31では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。 In the next step S31, the “SN ratio maintenance / improvement process” is carried out. Here, for example, any of the above-mentioned SN ratio maintenance / improvement processes 1 to 3 is carried out.

ステップS32では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。ステップS32が実行されると、ステップS33に移行する。 In step S32, the distance to each pixel region of the object of interest (the object existing in the region of interest) is calculated. The total of the calculated distances is the distance image of the object of interest. When step S32 is executed, the process proceeds to step S33.

ステップS33では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS33での判断が肯定されるとフローは終了し、否定されるとステップS22に戻る。 In step S33, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device 30, and is denied when the measurement end request is not received. The monitoring control device 30 sends, for example, a measurement end request to the measurement control unit 23a when the electric system of the vehicle 1 on which the rider 20A is mounted is turned off. If the determination in step S33 is affirmed, the flow ends, and if denied, the process returns to step S22.

以上説明した物体検出処理2では、特にライダ20Aの射程範囲にある最近接移動物体に対してSN比を上げながら重点的に計測を行うことで、該最近接移動物体の位置、大きさ、形状等の情報を精度良く検出できる。 In the object detection process 2 described above, the position, size, and shape of the closest moving object are measured by focusing on the closest moving object in the range of the rider 20A while increasing the SN ratio. Etc. can be detected with high accuracy.

《物体検出処理3》
物体検出処理3を、図16を参照して説明する。図16のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理3は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 3 >>
The object detection process 3 will be described with reference to FIG. The flowchart of FIG. 16 is based on a processing algorithm executed by the measurement control unit 23a. The object detection process 3 is started when a measurement start request is received from the monitoring control device 30. The monitoring control device 30 sends a measurement start request to the rider 20A, for example, when the electric system of the vehicle 1 on which the rider 20A is mounted is turned on.

最初のステップS41では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。 In the first step S41, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting system 21 are sequentially pulsed. That is, a modulation signal having the same pulse amplitude, pulse width, and pulse period between the light emitting points is applied to the LD drive unit 21b at different timings, and each light emitting point of the LD 21a is made to emit light at different timings with the same amount of light emitted.

次のステップS42では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS42での判断が肯定されるとステップS42.5に移行し、否定されると同じ判断を再び行う。 In the next step S42, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the binarization processing unit 24b is monitored, and when the detection signal is "present", it is determined to be "with an object", and when the detection signal is "absent", it is determined to be "no object". do. If the judgment in step S42 is affirmed, the process proceeds to step S42.5, and if the judgment is denied, the same judgment is made again.

ステップS42.5では、物体が存在する領域を特定する。具体的には、ステップS42における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S42.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S42 are specified. That is, the position information of the object is specified.

ステップS43では、移動物体があるか否かを判断する。具体的には、例えば距離画像の連続する複数のフレームにおける物体の位置とフレームレートから、物体とライダ20Aの相対速度の変化を算出し、該変化が基準値以上の場合に該物体を「移動物体」と判定し、該基準値未満の場合に該物体を「静止物体」と判定する。ステップS43での判断が否定されるとステップS45に移行し、肯定されるとステップS44に移行する。 In step S43, it is determined whether or not there is a moving object. Specifically, for example, the change in the relative velocity between the object and the rider 20A is calculated from the position and frame rate of the object in a plurality of consecutive frames of the distance image, and when the change is equal to or more than the reference value, the object is "moved". It is determined to be an "object", and if it is less than the reference value, the object is determined to be a "stationary object". If the determination in step S43 is denied, the process proceeds to step S45, and if affirmed, the process proceeds to step S44.

ステップS45では、物体までの距離を取得する。具体的には、ステップS42における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S45, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S42 is acquired.

次のステップS46では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS47に移行し、否定されるとステップS53に移行する。 In the next step S46, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S47, and if denied, the process proceeds to step S53.

次のステップS47では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS47が実行されると、ステップS51に移行する。 In the next step S47, the region where the object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the object surrounding the object as the attention area, and outputs the setting information to the measurement control unit 23a. When step S47 is executed, the process proceeds to step S51.

ステップS44では、移動物体が複数か否かを判断する。具体的には、ステップS43で判定された移動物体の数が複数か否かを判断する。ここでの判断が否定されるとステップS45に移行し、肯定されるとステップS48に移行する。 In step S44, it is determined whether or not there are a plurality of moving objects. Specifically, it is determined whether or not the number of moving objects determined in step S43 is plural. If the determination here is denied, the process proceeds to step S45, and if affirmed, the process proceeds to step S48.

ステップS48では、各物体までの距離を取得する。具体的には、ステップS42における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S48, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S42 is acquired.

次のステップS49では、距離が所定距離(例えば100m)未満の移動物体があるか否かを判断する。ここでの判断が肯定されるとステップS50に移行し、否定されるとステップS53に移行する。 In the next step S49, it is determined whether or not there is a moving object whose distance is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S50, and if denied, the process proceeds to step S53.

ステップS50では、距離が所定距離未満の移動物体が存在する全ての領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と移動物体の位置情報を送る。このとき、注目領域設定部23cは、距離が所定距離未満の移動物体を囲む該移動物体よりも幾分大きい領域を注目領域として設定する。 In step S50, all regions in which moving objects having a distance less than a predetermined distance exist are set as regions of interest. Specifically, the attention area setting request and the position information of the moving object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the moving object surrounding the moving object whose distance is less than a predetermined distance as the attention region.

次のステップS51では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。 In the next step S51, the “SN ratio maintenance / improvement process” is carried out. Here, for example, any of the above-mentioned SN ratio maintenance / improvement processes 1 to 3 is carried out.

ステップS52では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。ステップS52が実行されると、ステップS53に移行する。 In step S52, the distance to each pixel region of the object of interest (the object existing in the region of interest) is calculated. The total of the calculated distances is the distance image of the object of interest. When step S52 is executed, the process proceeds to step S53.

ステップS53では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS53での判断が肯定されるとフローは終了し、否定されるとステップS42に戻る。 In step S53, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device 30, and is denied when the measurement end request is not received. The monitoring control device 30 sends, for example, a measurement end request to the measurement control unit 23a when the electric system of the vehicle 1 on which the rider 20A is mounted is turned off. If the determination in step S53 is affirmed, the flow ends, and if denied, the process returns to step S42.

以上説明した物体検出処理3では、特にライダ20Aの射程距離にある全ての移動物体に対してSN比を上げながら重点的に計測を行うことで、該移動物体の位置、大きさ、形状等の情報を精度良く検出できる。 In the object detection process 3 described above, the position, size, shape, etc. of the moving object can be determined by focusing on the measurement while increasing the SN ratio for all the moving objects within the range of the rider 20A. Information can be detected accurately.

《物体検出処理4》
物体検出処理4を、図17を参照して説明する。図17のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理4は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 4 >>
The object detection process 4 will be described with reference to FIG. The flowchart of FIG. 17 is based on a processing algorithm executed by the measurement control unit 23a. The object detection process 4 is started when a measurement start request is received from the monitoring control device 30. The monitoring control device 30 sends a measurement start request to the rider 20A, for example, when the electric system of the vehicle 1 on which the rider 20A is mounted is turned on.

最初のステップS61では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。 In the first step S61, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting system 21 are sequentially pulsed. That is, a modulation signal having the same pulse amplitude, pulse width, and pulse period between the light emitting points is applied to the LD drive unit 21b at different timings, and each light emitting point of the LD 21a is made to emit light at different timings with the same amount of light emitted.

次のステップS62では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS62での判断が肯定されるとステップS62.5に移行し、否定されると同じ判断を再び行う。 In the next step S62, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the binarization processing unit 24b is monitored, and when the detection signal is "present", it is determined to be "with an object", and when the detection signal is "absent", it is determined to be "no object". do. If the determination in step S62 is affirmed, the process proceeds to step S62.5, and if denied, the same determination is made again.

ステップS62.5では、物体が存在する領域を特定する。具体的には、ステップS62における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を特定する。 In step S62.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S62 are specified. That is, the position information of the object is specified.

次のステップS63では、移動物体があるか否かを判断する。例えば距離画像の連続する複数のフレームにおける物体の位置とフレームレートから、物体とライダ20Aの相対速度の変化が基準値以上の場合に該物体を「移動物体」と判定し、該基準値未満の場合に該物体を「静止物体」と判定する。ステップS63での判断が否定されるとステップS64に移行し、肯定されるとステップS67に移行する。 In the next step S63, it is determined whether or not there is a moving object. For example, if the change in the relative velocity between the object and the rider 20A is greater than or equal to the reference value from the position and frame rate of the object in a plurality of consecutive frames of the distance image, the object is determined to be a "moving object" and is less than the reference value. In some cases, the object is determined to be a "stationary object". If the determination in step S63 is denied, the process proceeds to step S64, and if affirmed, the process proceeds to step S67.

ステップS64では、物体までの距離を取得する。具体的には、ステップS62における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S64, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S62.

次のステップS65では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS66に移行し、否定されるとステップS74に移行する。 In the next step S65, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S66, and if denied, the process proceeds to step S74.

ステップS66では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS66が実行されると、ステップS71に移行する。 In step S66, the area where the object exists is set as the area of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the object surrounding the object as the attention area, and outputs the setting information to the measurement control unit 23a. When step S66 is executed, the process proceeds to step S71.

ステップS67では、移動物体が複数か否かを判断する。具体的には、ステップS63で判定された移動物体の数が複数か否かを判断する。ここでの判断が否定されるとステップS64に移行し、肯定されるとステップS68に移行する。 In step S67, it is determined whether or not there are a plurality of moving objects. Specifically, it is determined whether or not the number of moving objects determined in step S63 is plural. If the determination here is denied, the process proceeds to step S64, and if affirmed, the process proceeds to step S68.

ステップS68では、各物体までの距離を取得する。具体的には、ステップS62における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S68, the distance to each object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S62.

次のステップS69では、距離が所定距離(例えば100m)未満の移動物体があるか否かを判断する。ここでの判断が肯定されるとステップS70に移行し、否定されるとステップS74に移行する。 In the next step S69, it is determined whether or not there is a moving object whose distance is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S70, and if denied, the process proceeds to step S74.

ステップS70では、距離が所定距離未満の全ての移動物体のライダ20Aへの接近速度を算出する。具体的には、距離画像の連続するフレーム間での物体の位置の変化とフレームレートから、該物体の接近速度を算出する。なお、「接近速度」は、例えば、移動物体がライダ20Aに接近している場合を+、離間している場合を−とする。 In step S70, the approach speed of all moving objects whose distance is less than a predetermined distance to the rider 20A is calculated. Specifically, the approach speed of the object is calculated from the change in the position of the object and the frame rate between consecutive frames of the distance image. The "approaching speed" is, for example, + when the moving object is approaching the rider 20A and-when it is separated.

次のステップS71では、接近速度が最速の移動物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と接近速度が最速の移動物体の位置情報を送る。このとき、注目領域設定部23cは、接近速度が最速の移動物体を囲む該移動物体よりも幾分大きい領域を注目領域として設定する。 In the next step S71, the region where the moving object having the fastest approach speed exists is set as the region of interest. Specifically, the attention area setting request and the position information of the moving object having the fastest approach speed are sent to the attention area setting unit 23c. At this time, the region of interest setting unit 23c sets a region of interest that is slightly larger than the moving object surrounding the moving object having the fastest approach speed.

次のステップS72では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。 In the next step S72, the “SN ratio maintenance / improvement process” is carried out. Here, for example, any of the above-mentioned SN ratio maintenance / improvement processes 1 to 3 is carried out.

次のステップS73では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。 In the next step S73, the distance of the object of interest (the object existing in the region of interest) to each pixel region is calculated. The total of the calculated distances is the distance image of the object of interest.

ステップS74では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS74での判断が肯定されるとフローは終了し、否定されるとステップS62に戻る。 In step S74, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device 30, and is denied when the measurement end request is not received. The monitoring control device 30 sends, for example, a measurement end request to the measurement control unit 23a when the electric system of the vehicle 1 on which the rider 20A is mounted is turned off. If the determination in step S74 is affirmed, the flow ends, and if denied, the process returns to step S62.

以上説明した物体検出処理4では、特にライダ20Aの射程範囲にある接近速度が最速の移動物体に対してSN比を上げながら重点的に測定を行うことで、該移動物体の位置、大きさ、形状、移動速度等の情報を精度良く検出できる。 In the object detection process 4 described above, the position, size, and position of the moving object are measured by focusing on the moving object having the fastest approaching speed in the range of the rider 20A while increasing the SN ratio. Information such as shape and moving speed can be detected with high accuracy.

《物体検出処理5》
物体検出処理5を、図18を参照して説明する。図18のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理5は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 5 >>
The object detection process 5 will be described with reference to FIG. The flowchart of FIG. 18 is based on a processing algorithm executed by the measurement control unit 23a. The object detection process 5 is started when a measurement start request is received from the monitoring control device 30. The monitoring control device 30 sends a measurement start request to the rider 20A, for example, when the electric system of the vehicle 1 on which the rider 20A is mounted is turned on.

最初のステップS81では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。 In the first step S81, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting system 21 are sequentially pulsed. That is, a modulation signal having the same pulse amplitude, pulse width, and pulse period between the light emitting points is applied to the LD drive unit 21b at different timings, and each light emitting point of the LD 21a is made to emit light at different timings with the same amount of light emitted.

次のステップS82では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS82での判断が肯定されるとステップS82.5に移行し、否定されると同じ判断を再び行う。 In the next step S82, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the binarization processing unit 24b is monitored, and when the detection signal is "present", it is determined to be "with an object", and when the detection signal is "absent", it is determined to be "no object". do. If the determination in step S82 is affirmed, the process proceeds to step S82.5, and if denied, the same determination is made again.

ステップS82.5では、物体が存在する領域を特定する。具体的には、ステップS82における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を求める。 In step S82.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to the plurality of light emitting points involved in the generation of the detection signal in step S82 are specified. That is, the position information of the object is obtained.

次のステップS83では、低反射物体があるか否かを判断する。ここでは、ステップS82における検出信号の元となる受光信号の信号レベル(受光量)を取得し、該信号レベルの、ステップS82.5で求めた物体の位置情報から得られる該物体までの距離に対する比が所定値未満の場合に、該物体を低反射物体と見做す。ステップS83での判断が否定されるとステップS84に移行し、肯定されるとステップS87に移行する。 In the next step S83, it is determined whether or not there is a low reflection object. Here, the signal level (light receiving amount) of the received light signal that is the source of the detection signal in step S82 is acquired, and the distance to the object obtained from the position information of the object obtained in step S82.5 of the signal level is relative to the distance to the object. When the ratio is less than a predetermined value, the object is regarded as a low reflection object. If the determination in step S83 is denied, the process proceeds to step S84, and if affirmed, the process proceeds to step S87.

ステップS84では、物体までの距離を取得する。具体的には、ステップS82における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S84, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S82.

次のステップS85では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS86に移行し、否定されるとステップS93に移行する。 In the next step S85, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the judgment here is affirmed, the process proceeds to step S86, and if denied, the process proceeds to step S93.

ステップS86では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS86が実行されると、ステップS91に移行する。 In step S86, the area where the object exists is set as the area of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the object surrounding the object as the attention area, and outputs the setting information to the measurement control unit 23a. When step S86 is executed, the process proceeds to step S91.

ステップS87では、低反射物体が複数か否かを判断する。具体的には、ステップS82.5で求めた比が所定値未満の物体が複数あるか否かで判断する。ここでの判断が否定されるとステップS84に移行し、肯定されるとステップS88に移行する。 In step S87, it is determined whether or not there are a plurality of low reflection objects. Specifically, it is determined whether or not there are a plurality of objects whose ratio obtained in step S82.5 is less than a predetermined value. If the determination here is denied, the process proceeds to step S84, and if affirmed, the process proceeds to step S88.

ステップS88では、各低反射物体までの距離を取得する。具体的には、ステップS82における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S88, the distance to each low-reflection object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e is acquired based on the detection signal in step S82.

次のステップS89では、最近接低反射物体(ライダ20Aに最も近い低反射物体)までの距離が所定距離(例えば200m)未満か否かを判断する。ここでの判断が肯定されるとステップS90に移行し、否定されるとステップS93に移行する。 In the next step S89, it is determined whether or not the distance to the closest low-reflection object (the low-reflection object closest to the rider 20A) is less than a predetermined distance (for example, 200 m). If the judgment here is affirmed, the process proceeds to step S90, and if denied, the process proceeds to step S93.

ステップS90では、最近接低反射物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と最近接低反射物体の位置情報を送る。このとき、注目領域設定部23cは、最近接低反射物体を囲む該最近接低反射物体よりも幾分大きい領域を注目領域として設定する。 In step S90, the region where the closest low-reflection object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the closest low reflection object are sent to the attention area setting unit 23c. At this time, the attention region setting unit 23c sets a region that is slightly larger than the closest low reflection object surrounding the closest low reflection object as the attention region.

次のステップS91では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。 In the next step S91, the "SN ratio maintenance / improvement process" is carried out. Here, for example, any of the above-mentioned SN ratio maintenance / improvement processes 1 to 3 is carried out.

次のステップS92では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。 In the next step S92, the distance of the object of interest (the object existing in the region of interest) to each pixel region is calculated. The total of the calculated distances is the distance image of the object of interest.

次のステップS93では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS93での判断が肯定されるとフローは終了し、否定されるとステップS82に戻る。 In the next step S93, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device 30, and is denied when the measurement end request is not received. The monitoring control device 30 sends, for example, a measurement end request to the measurement control unit 23a when the electric system of the vehicle 1 on which the rider 20A is mounted is turned off. If the determination in step S93 is affirmed, the flow ends, and if denied, the process returns to step S82.

以上の説明した物体検出処理5では、特にライダ20Aの射程距離にある最近接低反射物体に対してSN比を上げながら重点的に測定を行うことで、該最近接低反射物体の位置、大きさ、形状等の情報を精度良く検出できる。 In the object detection process 5 described above, the position and size of the closest low-reflection object are measured by focusing on the closest low-reflection object at a range of the rider 20A while increasing the SN ratio. Information such as shape can be detected with high accuracy.

《物体検出処理6》
物体検出処理5を、図19を参照して説明する。図19のフローチャートは、測定制御部23aによって実行される処理アルゴリズムに基づいている。物体検出処理6は、監視制御装置30から測定開始要求を受けたときに開始される。監視制御装置30は、例えばライダ20Aが搭載された車両1の電気系統がONになったときにライダ20Aに測定開始要求を送る。
<< Object detection process 6 >>
The object detection process 5 will be described with reference to FIG. The flowchart of FIG. 19 is based on a processing algorithm executed by the measurement control unit 23a. The object detection process 6 is started when a measurement start request is received from the monitoring control device 30. The monitoring control device 30 sends a measurement start request to the rider 20A, for example, when the electric system of the vehicle 1 on which the rider 20A is mounted is turned on.

最初のステップS101では、投光範囲全域へパルス光を投光する。具体的には、投光系21のLDの複数の発光点を順次パルス発光させる。すなわち、発光点間でパルス振幅、パルス幅、パルス周期が同一の変調信号をLD駆動部21bに異なるタイミングで印加して、LD21aの各発光点を同一の発光光量で異なるタイミングで発光させる。 In the first step S101, pulsed light is projected over the entire projection range. Specifically, a plurality of light emitting points of the LD of the light projecting system 21 are sequentially pulsed. That is, a modulation signal having the same pulse amplitude, pulse width, and pulse period between the light emitting points is applied to the LD drive unit 21b at different timings, and each light emitting point of the LD 21a is made to emit light at different timings with the same amount of light emitted.

次のステップS102では、投光範囲(検出領域)に物体があるか否かを判断する。具体的には、二値化処理部24bからの検出信号の有無をモニタし、検出信号が「有り」のときは「物体あり」、検出信号が「無し」のときは「物体なし」と判断する。ステップS102での判断が肯定されるとステップS102.5に移行し、否定されると同じ判断を再び行う。 In the next step S102, it is determined whether or not there is an object in the light projection range (detection area). Specifically, the presence or absence of the detection signal from the binarization processing unit 24b is monitored, and when the detection signal is "present", it is determined to be "with an object", and when the detection signal is "absent", it is determined to be "no object". do. If the determination in step S102 is affirmed, the process proceeds to step S102.5, and if the determination is denied, the same determination is made again.

ステップS102.5では、物体が存在する領域を特定する。具体的には、ステップS102における検出信号の生成に関わった複数の発光点に対応する複数の画素領域を特定する。すなわち、物体の位置情報を求める。 In step S102.5, the area where the object exists is specified. Specifically, a plurality of pixel regions corresponding to a plurality of light emitting points involved in the generation of the detection signal in step S102 are specified. That is, the position information of the object is obtained.

次のステップS103では、低反射物体があるか否かを判断する。ここでは、ステップS102における検出信号の元となる受光信号の信号レベル(受光量)を取得し、該信号レベルの、ステップS102.5で求めた物体の位置情報から得られる該物体までの距離に対する比が所定値未満の場合に、該物体を低反射物体と見做す。ステップS103での判断が否定されるとステップS104に移行し、肯定されるとステップS107に移行する。 In the next step S103, it is determined whether or not there is a low reflection object. Here, the signal level (light receiving amount) of the received light signal that is the source of the detection signal in step S102 is acquired, and the distance to the object obtained from the position information of the object obtained in step S102.5 of the signal level is relative to the distance to the object. When the ratio is less than a predetermined value, the object is regarded as a low reflection object. If the determination in step S103 is denied, the process proceeds to step S104, and if affirmed, the process proceeds to step S107.

ステップS104では、物体までの距離を取得する。具体的には、ステップS102における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S104, the distance to the object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S102 is acquired.

次のステップS105では、物体までの距離が所定距離(例えば100m)未満か否かを判断する。ここでの判断が肯定されるとステップS106に移行し、否定されるとステップS113に移行する。 In the next step S105, it is determined whether or not the distance to the object is less than a predetermined distance (for example, 100 m). If the determination here is affirmed, the process proceeds to step S106, and if denied, the process proceeds to step S113.

次のステップS106では、物体が存在する領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と物体の位置情報を送る。このとき、注目領域設定部23cは、物体を囲む該物体よりも幾分大きい領域を注目領域として設定し、その設定情報を測定制御部23aに出力する。ステップS106が実行されると、ステップS111に移行する。 In the next step S106, the region where the object exists is set as the region of interest. Specifically, the attention area setting request and the position information of the object are sent to the attention area setting unit 23c. At this time, the attention area setting unit 23c sets a region slightly larger than the object surrounding the object as the attention area, and outputs the setting information to the measurement control unit 23a. When step S106 is executed, the process proceeds to step S111.

ステップS107では、低反射物体が複数か否かを判断する。具体的には、ステップS103で求めた比が所定値未満の物体が複数あるか否かで判断する。ここでの判断が否定されるとステップS104に移行し、肯定されるとステップS108に移行する。 In step S107, it is determined whether or not there are a plurality of low reflection objects. Specifically, it is determined whether or not there are a plurality of objects whose ratio obtained in step S103 is less than a predetermined value. If the determination here is denied, the process proceeds to step S104, and if the determination is affirmed, the process proceeds to step S108.

ステップS108では、各低反射物体までの距離を取得する。具体的には、ステップS102における検出信号に基づいて距離演算部22eで算出された距離データを取得する。 In step S108, the distance to each low-reflection object is acquired. Specifically, the distance data calculated by the distance calculation unit 22e based on the detection signal in step S102 is acquired.

次のステップS109では、距離が所定距離(例えば100m)未満の低反射物体があるか否かを判断する。ここでの判断が肯定されるとステップS110に移行し、否定されるとステップS113に移行する。 In the next step S109, it is determined whether or not there is a low reflection object whose distance is less than a predetermined distance (for example, 100 m). If the determination here is affirmed, the process proceeds to step S110, and if denied, the process proceeds to step S113.

ステップS110では、距離が所定距離未満の低反射物体が存在する全ての領域を注目領域として設定する。具体的には、注目領域設定部23cに注目領域設定要求と低反射物体の位置情報を送る。このとき、注目領域設定部23cは、低反射物体を囲む該低反射物体よりも幾分大きい領域を注目領域として設定する。 In step S110, all regions in which a low-reflection object having a distance of less than a predetermined distance exists are set as regions of interest. Specifically, the attention area setting request and the position information of the low reflection object are sent to the attention area setting unit 23c. At this time, the region of interest setting unit 23c sets a region that is slightly larger than the low-reflection object surrounding the low-reflection object as the region of interest.

次のステップS111では、「SN比維持向上処理」を実施する。ここでは、例えば前述したSN比維持向上処理1〜3のいずれかを実施する。 In the next step S111, the "SN ratio maintenance / improvement process" is carried out. Here, for example, any of the above-mentioned SN ratio maintenance / improvement processes 1 to 3 is carried out.

次のステップS112では、注目物体(注目領域に存在する物体)の各画素領域までの距離を算出する。算出された距離を総合したものが、注目物体の距離画像となる。 In the next step S112, the distance of the object of interest (the object existing in the region of interest) to each pixel region is calculated. The total of the calculated distances is the distance image of the object of interest.

次のステップS113では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置30から、測定終了要求を受けているときに肯定され、受けていないときに否定される。監視制御装置30は、例えば、ライダ20Aが搭載された車両1の電気系統がOFFになったときに測定制御部23aに測定終了要求を送る。ステップS113での判断が肯定されるとフローは終了し、否定されるとステップS102に戻る。 In the next step S113, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device 30, and is denied when the measurement end request is not received. The monitoring control device 30 sends, for example, a measurement end request to the measurement control unit 23a when the electric system of the vehicle 1 on which the rider 20A is mounted is turned off. If the determination in step S113 is affirmed, the flow ends, and if denied, the process returns to step S102.

以上説明した物体検出処理6では、特にライダ20Aの射程範囲にある全ての低反射物体に対してSN比を上げながら重点的に測定を行うことで、該低反射物体の位置、大きさ、形状等の情報を精度良く検出できる。 In the object detection process 6 described above, the position, size, and shape of the low-reflection object are measured by focusing on all the low-reflection objects within the range of the rider 20A while increasing the SN ratio. Etc. can be detected with high accuracy.

なお、上記物体検出処理4において「移動物体」を「低反射物体」に置き換えた物体検出処理4´を行っても良い。 In the object detection process 4, the object detection process 4'in which the "moving object" is replaced with the "low reflection object" may be performed.

また、上記各物体検出処理において、2番目のステップ(物体があるか否かを判断するステップ)での判断が否定されたときに、投光範囲全域に対して「SN比維持向上処理」を行うステップを追加し、該ステップの後、2番目のステップに戻しても良い。この場合、SN比を向上させないと検出が困難な遠距離物体、低反射物体、小物体なども検出することが可能となる。 Further, in each of the above object detection processes, when the determination in the second step (the step of determining whether or not there is an object) is denied, the "SN ratio maintenance / improvement process" is performed for the entire projection range. You may add a step to perform and then return to the second step after that step. In this case, it is possible to detect long-distance objects, low-reflection objects, small objects, etc., which are difficult to detect unless the SN ratio is improved.

また、上記各物体検出処理において、注目領域を設定するための一連の処理に並行して、非注目領域への投光により非注目領域を粗く、もしくはフレームレートを下げて検出を行うことが好ましい。そして、ある非注目領域で検出対象の特定の物体が検出されたときに、該非注目領域を注目領域に切り替えて検出を行うことが好ましい。 Further, in each of the above object detection processes, it is preferable to perform detection by coarsening the non-attention region or lowering the frame rate by projecting light onto the non-attention region in parallel with a series of processes for setting the attention region. .. Then, when a specific object to be detected is detected in a certain non-attention region, it is preferable to switch the non-attention region to the attention region for detection.

[第2実施形態]
図20(a)及び図20(b)には、第2実施形態の物体検出装置200の一例としてのライダ20Bの投光系及び受光系の構成が示されている。
[Second Embodiment]
20 (a) and 20 (b) show the configurations of the light emitting system and the light receiving system of the lidar 20B as an example of the object detection device 200 of the second embodiment.

ライダ20Bは、投光系が、光源からの光を有効走査領域に向けて偏向走査する走査ミラーを有している点が上記第1実施形態のライダ20Aと異なる。すなわち、第2実施形態のライダ20Bは、走査型のライダである。 The rider 20B is different from the rider 20A of the first embodiment in that the light projecting system has a scanning mirror that deflects and scans the light from the light source toward the effective scanning region. That is, the rider 20B of the second embodiment is a scanning type rider.

ここでは、この走査ミラーにMEMS機構でミラー部を駆動するMEMSミラーを用いているが、モータによって多面鏡を回転させるポリゴンミラー、その他ガルバノミラーなど種々の変形が可能である。 Here, a MEMS mirror for driving the mirror portion by a MEMS mechanism is used for this scanning mirror, but various modifications such as a polygon mirror in which a multifaceted mirror is rotated by a motor and other galvano mirrors are possible.

第2実施形態では、MEMSミラーによって走査される光(走査光)を検出する光検出部(例えばフォトダイオードやフォトトランジスタ)が有効走査領域を含む投光範囲(検出領域)に設けられ、測定制御部は、光検出部の出力に基づいて走査光の位置(走査位置)を検出し、該走査位置に基づいて投光系の光源を制御する。なお、MEMSミラーにミラー部の振れ角を検知する振れ角検知部が設けられる場合には、測定制御部は該振れ角検知部の出力に基づいて走査位置を検出しても良い。 In the second embodiment, a photodetector (for example, a photodiode or a phototransistor) for detecting the light (scanning light) scanned by the MEMS mirror is provided in a light projection range (detection region) including an effective scanning region, and measurement control is performed. The unit detects the position of the scanning light (scanning position) based on the output of the light detection unit, and controls the light source of the projection system based on the scanning position. When the MEMS mirror is provided with a runout angle detection unit for detecting the runout angle of the mirror unit, the measurement control unit may detect the scanning position based on the output of the runout angle detection unit.

また、走査する構成としては、投光系、受光系をZ軸方向に重ねた構成にしており、ともに図20のようにZ軸方向から見たときに同軸で走査ミラーに入射して走査することにより、投光系で光を投射している領域と、受光系で光を取り込む領域を一致させ、安定した物体検出を実現している。 Further, the scanning configuration is such that the light emitting system and the light receiving system are overlapped in the Z-axis direction, and both are coaxially incident on the scanning mirror and scanned when viewed from the Z-axis direction as shown in FIG. As a result, the region in which the light is projected by the light projecting system and the region in which the light is taken in by the light receiving system are matched, and stable object detection is realized.

第2実施形態の変形例として、投光系においてのみ走査ミラーで走査し、受光系は走査ミラーを介さず、上記第1実施形態のように、有効走査領域全体を結像光学系によって観察する構成もとりうる。 As a modification of the second embodiment, the scanning mirror scans only in the light projecting system, and the light receiving system observes the entire effective scanning region by the imaging optical system as in the first embodiment without using the scanning mirror. It can also be configured.

この場合、受光系において走査ミラーの設置スペースが不要となり、投光系において走査ミラーのサイズを小さくすることによって、高速駆動や広角駆動とすることも可能である。 In this case, the space for installing the scanning mirror is not required in the light receiving system, and by reducing the size of the scanning mirror in the light projecting system, high-speed drive or wide-angle drive can be achieved.

図20では、座標軸は、有効走査領域がYZ平面となるようにとっており、走査ミラーは、図20では図示されていないが、Y軸方向とZ軸方向の2軸方向に独立して走査可能な構成とされている。走査ミラーをポリゴンミラーなどで代用する場合は、複数の反射面を回転軸に対してそれぞれ異なった角度で傾けて配置して、走査・検出する領域をZ軸方向に切り替えることも可能である。 In FIG. 20, the coordinate axes are set so that the effective scanning area is in the YZ plane, and the scanning mirror is not shown in FIG. 20, but can be scanned independently in the two axial directions of the Y-axis direction and the Z-axis direction. It is configured. When the scanning mirror is replaced with a polygon mirror or the like, it is also possible to arrange a plurality of reflecting surfaces at different angles with respect to the rotation axis and switch the scanning / detecting area in the Z-axis direction.

第2実施形態における、注目領域への光の照射方法を以下に説明する。 The method of irradiating the region of interest with light in the second embodiment will be described below.

上記第1実施形態と同様に、図6のような物体検出結果(距離画像)に基づき、物体Aが存在する領域を注目領域とする場合、走査手段としてのMEMSミラーの駆動を非共振モードに切り替えて、注目領域に光を偏向させる角度のみに限定してミラーを駆動させる。 Similar to the first embodiment, when the region where the object A exists is set as the region of interest based on the object detection result (distance image) as shown in FIG. 6, the drive of the MEMS mirror as the scanning means is set to the non-resonant mode. By switching, the mirror is driven only at an angle that deflects the light to the region of interest.

注目領域までの距離について精度良く検知したい場合は、注目領域を繰返し走査して信号を取得することによって、SN比を増加させることができる。物体Aを回避するように移動体を制御する場合は、距離情報よりも物体Aのサイズ、形状の輪郭の方をより精度良く検知して、移動可能領域を判定する必要があるため、MEMSミラーの駆動を物体Aの輪郭部分を照射するようさらに絞って、より高速にSN比を向上させても良い。 When it is desired to accurately detect the distance to the region of interest, the SN ratio can be increased by repeatedly scanning the region of interest to acquire a signal. When controlling a moving body so as to avoid the object A, it is necessary to detect the size and shape contour of the object A more accurately than the distance information to determine the movable area. Therefore, the MEMS mirror The drive of the object A may be further reduced so as to irradiate the contour portion of the object A, and the SN ratio may be improved at a higher speed.

また、非共振モードに切り替えず、共振モードで有効走査領域全体を走査するモードのままで、注目領域を走査するときの光源の発光周期を短くしたり、発光デューティを大きくしたり、光源への駆動電流の振幅を増加させて発光パルスのピーク光量を増大させることで受光信号のSN比を上げても良い。この方法は、ポリゴンミラーなど、ある領域に限定して偏向させるような駆動ができない光偏向器の場合でも有効である。 In addition, without switching to the non-resonant mode, the light emission cycle of the light source when scanning the region of interest can be shortened, the emission duty can be increased, or the light source can be used while the mode remains in which the entire effective scanning region is scanned in the resonance mode. The SN ratio of the received signal may be increased by increasing the amplitude of the drive current to increase the peak light amount of the light emission pulse. This method is also effective in the case of an optical deflector that cannot be driven to deflect only a certain area, such as a polygon mirror.

また、光源の駆動条件の制約などにより、光源の発光周期や発光デューティを変えることができない場合は、前述のようにMEMSミラーを非共振モードとし、注目領域を照射しても良いし、走査速度を遅くすることでも実質的に注目領域への投光回数(照射回数)を増やすことが可能となる。 If the light emission cycle and light emission duty of the light source cannot be changed due to restrictions on the driving conditions of the light source, the MEMS mirror may be set to the non-resonant mode as described above to irradiate the region of interest, or the scanning speed. It is also possible to substantially increase the number of times of light projection (the number of times of irradiation) to the region of interest by slowing down.

以上説明した第2実施形態のライダ20Bを用いて、前述した閾値設定処理、SN比維持向上処理1〜3、物体検出処理1〜6を行うこともできる。 Using the rider 20B of the second embodiment described above, the above-mentioned threshold setting processing, SN ratio maintenance / improvement processing 1 to 3, and object detection processing 1 to 6 can also be performed.

[第3実施形態]
図21(a)及び図21(b)には、第3実施形態のライダ300aとステレオカメラ300bを備える物体検出装置300が車両本体(移動体)に搭載される車両1´(移動体装置)の側面図及び正面図がそれぞれ示されている。
[Third Embodiment]
In FIGS. 21 (a) and 21 (b), the vehicle 1'(mobile body device) in which the object detection device 300 including the rider 300a and the stereo camera 300b of the third embodiment is mounted on the vehicle body (moving body). A side view and a front view of the above are shown respectively.

ライダ300aは、上記第1実施形態のライダ20A又は第2実施形態のライダ20Bと同様の構成を有しており、例えば車両1´の前側のナンバープレート近傍に取り付けられている。なお、ライダ300aを例えば車両1´内に取り付けても良いが、その場合、ライダ300aからの投射光の一部がフロントガラスで反射することが懸念される。 The rider 300a has the same configuration as the rider 20A of the first embodiment or the rider 20B of the second embodiment, and is attached, for example, in the vicinity of the license plate on the front side of the vehicle 1'. The rider 300a may be mounted inside the vehicle 1', for example, but in that case, there is a concern that a part of the projected light from the rider 300a may be reflected by the windshield.

ステレオカメラ300bは、例えば車両1´内のバックミラー近傍に取り付けられおり、撮像部1(左眼)と撮像部2(右眼)の撮像結果から得られる視差画像により検出領域の距離情報を検出する。なお、ステレオカメラ300bを車両1´外に取り付けても良いが、その場合、ステレオカメラ300bのレンズが汚れることが懸念される。 The stereo camera 300b is attached, for example, near the rear-view mirror in the vehicle 1', and detects the distance information of the detection area from the parallax images obtained from the imaging results of the imaging unit 1 (left eye) and the imaging unit 2 (right eye). do. The stereo camera 300b may be mounted outside the vehicle 1', but in that case, there is a concern that the lens of the stereo camera 300b may become dirty.

図22には、ライダ300aの投光範囲とステレオカメラ300bの撮像範囲が示されている。 FIG. 22 shows the projection range of the lidar 300a and the imaging range of the stereo camera 300b.

図22に示されるように、撮像部1の撮像範囲(左眼撮像範囲)と撮像部2の撮像範囲(右眼撮像範囲)は、オーバーラップ領域(重なり部分)を有し、そのオーバーラップ領域にライダ300aの投光範囲が含まれている。なお、該オーバーラップ領域が投光範囲に一致又は投光範囲に含まれても良い。 As shown in FIG. 22, the imaging range of the imaging unit 1 (left eye imaging range) and the imaging range of the imaging unit 2 (right eye imaging range) have an overlapping region (overlapping portion), and the overlapping region thereof. The light projection range of the lidar 300a is included in. The overlapping region may match the light projection range or be included in the light projection range.

第3実施形態では、注目領域を設定するために、ステレオカメラ300bの撮像結果を用いる。 In the third embodiment, the imaging result of the stereo camera 300b is used to set the region of interest.

一般に、ステレオカメラは、ライダに比べて、角度分解能を高くしやすく、より小さい物体などへの検知に優れるが、遠方になればなるほど距離分解能を高めることが難しく、物体までの距離を精度よく検出できない。 In general, a stereo camera is easier to increase the angular resolution than a rider and is excellent in detecting smaller objects, but it is difficult to increase the distance resolution as the distance increases, and the distance to an object can be detected accurately. Can not.

そこで、ステレオカメラ300bを用いて投光範囲全域における物体の有無を検出し、注目領域を設定した後(注目モードに移行した後)、ライダ300aによって注目領域のSN比を上げながら物体までの距離の検出を行うことにより、非注目モードよりも、遠距離物体や低反射物体に関する情報を高精度に検出することができる。 Therefore, after detecting the presence or absence of an object in the entire projection range using the stereo camera 300b and setting the attention region (after shifting to the attention mode), the distance to the object while increasing the SN ratio of the attention region by the rider 300a. By detecting the above, it is possible to detect information about a long-distance object or a low-reflection object with higher accuracy than in the non-attention mode.

なお、上記第3実施形態では、ライダとステレオカメラを組み合わせる例を説明したが、ライダと単眼カメラを組み合わせても同様の効果が得られる。単眼カメラの場合、例えば光学フィルタを介して撮像することにより画素毎にボケやズレを生じさせ、そのボケ具合やズレ具合によって画素毎の被写体までの距離情報を得る。また、ライダとその他のセンシングデバイスとの組み合わせることも可能である。ミリ波レーダに関しては、ライダに比べて、雨や霧のときの検出信頼性、つまり耐候性が優れるが、検出領域の広角化と角度分解能の向上の両立が難しい。このため、悪天候時のおおまかな物体検出をミリ波レーダで行って注目領域を判断した後、ライダによって注目領域のSN比を上げながら物体検出を行うことにより、非注目モードに比べてより悪天候時での高精度な物体検出を実現できる。 Although the example of combining the rider and the stereo camera has been described in the third embodiment, the same effect can be obtained by combining the rider and the monocular camera. In the case of a monocular camera, for example, by taking an image through an optical filter, blurring or deviation is caused for each pixel, and distance information to the subject for each pixel is obtained depending on the degree of blurring or deviation. It is also possible to combine the rider with other sensing devices. Compared to lidar, millimeter-wave radar has excellent detection reliability in rain and fog, that is, weather resistance, but it is difficult to achieve both wide-angle detection area and improved angular resolution. For this reason, after roughly detecting an object in bad weather with a millimeter-wave radar to determine the region of interest, the lidar increases the SN ratio of the region of interest while detecting the object, which makes it more difficult in bad weather than in the non-attention mode. Highly accurate object detection can be realized.

また、上記第3実施形態の物体検出装置300では、ライダ300aとステレオカメラ300bを別体に構成しているが、図23に示されるようにライダ300aとステレオカメラ300bを一体的に構成し、車両外のナンバープレート近傍や車両内のバックミラー近傍に取り付けても良い。 Further, in the object detection device 300 of the third embodiment, the rider 300a and the stereo camera 300b are separately configured, but as shown in FIG. 23, the rider 300a and the stereo camera 300b are integrally configured. It may be installed near the license plate outside the vehicle or near the rearview mirror inside the vehicle.

以上説明した第3実施形態の物体検出装置300を用いて、前述した閾値設定処理、SN比維持向上処理1〜3、物体検出処理1〜6を行うこともできる。 Using the object detection device 300 of the third embodiment described above, it is also possible to perform the above-mentioned threshold setting processing, SN ratio maintenance / improvement processing 1 to 3, and object detection processing 1 to 6.

[第4実施形態]
図23に示される一体的に構成されたライダ300aとステレオカメラ300bを備える第4実施形態の物体検出装置400について説明する。図24は、物体検出装置400の外観構成及び取り付け例を示す図である。
[Fourth Embodiment]
The object detection device 400 of the fourth embodiment including the integrally configured rider 300a and the stereo camera 300b shown in FIG. 23 will be described. FIG. 24 is a diagram showing an external configuration and an installation example of the object detection device 400.

図24の上部(外観構成)に示すように、物体検出装置400は、周囲環境を3次元情報として取得するためのセンサ装置(3次元センサ)として、ステレオカメラ110と、ライダ(レーザレーダ)120とを備える。ステレオカメラ110は、単眼カメラ部111(第1撮像系)と単眼カメラ部112(第2撮像系)とを備え、ライダ120は、単眼カメラ部111と単眼カメラ部112との間に配置される。 As shown in the upper part (appearance configuration) of FIG. 24, the object detection device 400 includes a stereo camera 110 and a rider (laser radar) 120 as sensor devices (three-dimensional sensors) for acquiring the surrounding environment as three-dimensional information. And. The stereo camera 110 includes a monocular camera unit 111 (first imaging system) and a monocular camera unit 112 (second imaging system), and the rider 120 is arranged between the monocular camera unit 111 and the monocular camera unit 112. ..

単眼カメラ部111、112は、同期をとりながら所定のフレーム周期でそれぞれが撮影を行い、撮影画像を生成する。 The monocular camera units 111 and 112 each take a picture at a predetermined frame cycle while synchronizing with each other to generate a shot image.

ライダ120は、レーザ光を照射し、その反射光を受光することで、レーザ光の照射位置(オブジェクト)までの距離を測定する。 The rider 120 measures the distance to the irradiation position (object) of the laser beam by irradiating the laser beam and receiving the reflected light.

図24の下部(取り付け例)に示すように、物体検出装置400は、例えば、車両140のフロントウィンドウの内側中央位置に取り付けられる。このとき、ステレオカメラ110及びライダ120は、いずれも車両140の前方方向に向かって取り付けられる。つまり、車両140において、物体検出装置400は、ステレオカメラ110の撮影方向と、ライダ120のレーザ光の出射方向とが、同じ方向になるように取り付けられる。 As shown in the lower part (mounting example) of FIG. 24, the object detection device 400 is mounted, for example, at the center position inside the front window of the vehicle 140. At this time, both the stereo camera 110 and the rider 120 are attached toward the front of the vehicle 140. That is, in the vehicle 140, the object detection device 400 is attached so that the shooting direction of the stereo camera 110 and the emission direction of the laser beam of the rider 120 are in the same direction.

《物体検出装置400のハードウェア構成》
次に、物体検出装置400のハードウェア構成の一例について図25を参照して説明する。
<< Hardware configuration of object detection device 400 >>
Next, an example of the hardware configuration of the object detection device 400 will be described with reference to FIG.

図25に示されるように、物体検出装置400は、カメラステイ201と制御基板収納部202とを有する。 As shown in FIG. 25, the object detection device 400 has a camera stay 201 and a control board storage unit 202.

カメラステイ201には、単眼カメラ部111、112とライダ120とが一体的に取り付けられている。これにより、物体検出装置400の小型化及び低コスト化を実現している。 The monocular camera units 111 and 112 and the rider 120 are integrally attached to the camera stay 201. As a result, the object detection device 400 has been reduced in size and cost.

制御基板収納部202には、レーザ信号処理部240から構成される信号処理系、距離計算処理部250、メモリ260、MPU(Micro Processing Unit)270から構成される制御装置(制御系)が収納されている。レーザ信号処理部240をライダ120とは別体に構成することで、ライダ120のサイズを小さくすることができる。これにより、第4実施形態では、単眼カメラ部111と単眼カメラ部112との間への、ライダ120の配置を実現している。 The control board storage unit 202 houses a control device (control system) including a signal processing system composed of a laser signal processing unit 240, a distance calculation processing unit 250, a memory 260, and an MPU (Micro Processing Unit) 270. ing. By configuring the laser signal processing unit 240 separately from the rider 120, the size of the rider 120 can be reduced. As a result, in the fourth embodiment, the rider 120 is arranged between the monocular camera unit 111 and the monocular camera unit 112.

なお、図25の例では、レーザ信号処理部240と距離計算処理部250とを、別の回路基板として構成しているが、レーザ信号処理部240と距離計算処理部250とは、共通の回路基板により構成してもよい。回路基板の枚数を削減することで、低コスト化を図ることが可能となるからである。 In the example of FIG. 25, the laser signal processing unit 240 and the distance calculation processing unit 250 are configured as separate circuit boards, but the laser signal processing unit 240 and the distance calculation processing unit 250 have a common circuit. It may be composed of a substrate. This is because the cost can be reduced by reducing the number of circuit boards.

続いて、カメラステイ201側の各部の詳細について説明する。図25に示されるように、単眼カメラ部111(第1撮像系)は、カメラレンズ211と、撮像素子212と、センサ基板213とを備える。カメラレンズ211を介して入射された外部の光は、撮像素子212において受光され、所定のフレーム周期で光電変換される。光電変換により得られた信号は、センサ基板213において処理され、1フレームごとの撮影画像が生成される。生成された撮影画像は、比較画像として、順次、距離計算処理部250に送信される。 Subsequently, the details of each part on the camera stay 201 side will be described. As shown in FIG. 25, the monocular camera unit 111 (first image pickup system) includes a camera lens 211, an image pickup element 212, and a sensor substrate 213. The external light incident through the camera lens 211 is received by the image sensor 212 and photoelectrically converted at a predetermined frame period. The signal obtained by the photoelectric conversion is processed on the sensor substrate 213 to generate a captured image for each frame. The generated captured images are sequentially transmitted to the distance calculation processing unit 250 as comparative images.

なお、単眼カメラ部112(第2撮像系)も、単眼カメラ部111と同様の構成を有しており、同期制御信号に基づいて単眼カメラ部111と同期して生成された撮影画像は、基準画像として、順次、距離計算処理部250に送信される。 The monocular camera unit 112 (second imaging system) also has the same configuration as the monocular camera unit 111, and the captured image generated in synchronization with the monocular camera unit 111 based on the synchronization control signal is a reference. As an image, it is sequentially transmitted to the distance calculation processing unit 250.

ライダ120は、光源駆動回路231と、レーザ光源232と、投光レンズ233とで構成される投光系を備える。光源駆動回路231は、レーザ信号処理部240からの同期制御信号に基づいて動作し、レーザ光源232に対して変調電流(光源発光信号)を印加する。これにより、レーザ光源232からレーザ光が出射される。レーザ光源232から出射されたレーザ光は、投光レンズ233を介して外部に出射される。 The rider 120 includes a light projection system including a light source drive circuit 231, a laser light source 232, and a light projection lens 233. The light source drive circuit 231 operates based on the synchronization control signal from the laser signal processing unit 240, and applies a modulation current (light source emission signal) to the laser light source 232. As a result, the laser beam is emitted from the laser light source 232. The laser light emitted from the laser light source 232 is emitted to the outside via the projection lens 233.

なお、第4実施形態では、レーザ光源232として、赤外半導体レーザダイオード(LD:Laser Diode)が用いられ、レーザ光として波長800nm〜950nmの近赤外光が出射されるものとする。また、レーザ光源232は、光源駆動回路231により印加された変調電流(光源発光信号)に応じて、パルス状の波形を有するレーザ光を周期的に出射するものとする。更に、レーザ光源232は、数ナノ秒から数百ナノ秒程度の短いパルス幅を有するパルス状のレーザ光を周期的に出射するものとする。 In the fourth embodiment, an infrared semiconductor laser diode (LD: Laser Diode) is used as the laser light source 232, and near-infrared light having a wavelength of 800 nm to 950 nm is emitted as the laser light. Further, the laser light source 232 periodically emits a laser beam having a pulsed waveform according to a modulation current (light source emission signal) applied by the light source drive circuit 231. Further, the laser light source 232 periodically emits a pulsed laser beam having a short pulse width of about several nanoseconds to several hundred nanoseconds.

レーザ光源232から出射されたパルス状のレーザ光は、投光レンズ233を介して投射ビームとして外部に出射された後、所定の照射範囲に照射される。照射範囲は、単眼カメラ部111、単眼カメラ部112の撮像範囲よりも広いことが好ましい。なお、照射範囲を広げる場合には、投光系や受光系の角度分解能を上げる必要があるため、レーザ光源としてマルチchの面発光レーザアレイを用いたり、フォトダイオードをアレイ状に多数敷き詰めることで受光エリアが多数設定可能な受光素子を用いたりすることが好ましい。 The pulsed laser beam emitted from the laser light source 232 is emitted to the outside as a projection beam through the projection lens 233, and then is irradiated to a predetermined irradiation range. The irradiation range is preferably wider than the imaging range of the monocular camera unit 111 and the monocular camera unit 112. When expanding the irradiation range, it is necessary to increase the angular resolution of the light projecting system and the light receiving system. Therefore, by using a multi-channel surface emitting laser array as the laser light source or by laying out a large number of photodiodes in an array. It is preferable to use a light receiving element in which a large number of light receiving areas can be set.

ライダ120は、更に、受光レンズ234と、受光素子235と、受光信号増幅回路236とで構成される受光系を備える。所定のオブジェクトに照射されたレーザ光は、該オブジェクトにて散乱する。そして、ライダ120から出射されたレーザ光と同じ光路をたどって反射してくる光成分が、反射光として、受光レンズ234を介して受光素子235に導かれる。 The rider 120 further includes a light receiving system including a light receiving lens 234, a light receiving element 235, and a light receiving signal amplification circuit 236. The laser beam radiated to a predetermined object is scattered by the object. Then, the light component reflected along the same optical path as the laser light emitted from the rider 120 is guided to the light receiving element 235 as the reflected light via the light receiving lens 234.

第4実施形態では、受光素子235として、シリコンPINフォトダイオードやアバランシェフォトダイオードが用いられる。受光素子235は、反射光を光電変換することでレーザ受光信号を生成し、受光信号増幅回路236は、生成されたレーザ受光信号を増幅した後、レーザ信号処理部240に送信する。 In the fourth embodiment, a silicon PIN photodiode or an avalanche photodiode is used as the light receiving element 235. The light receiving element 235 generates a laser light receiving signal by photoelectrically converting the reflected light, and the light receiving signal amplification circuit 236 amplifies the generated laser light receiving signal and then transmits the generated laser light receiving signal to the laser signal processing unit 240.

続いて、制御基板収納部202側の各部の詳細について説明する。レーザ信号処理部240は、ライダ120より送信されたレーザ受光信号に基づいて、平均化/積算処理部及び二値化処理部を含む信号処理系である。レーザ信号処理部240は、処理後の信号を検出信号として距離計算処理部250に送信する。 Subsequently, the details of each part on the control board storage part 202 side will be described. The laser signal processing unit 240 is a signal processing system including an averaging / integrating processing unit and a binarization processing unit based on the laser light receiving signal transmitted from the rider 120. The laser signal processing unit 240 transmits the processed signal as a detection signal to the distance calculation processing unit 250.

距離計算処理部250は、例えば、FPGA(Field-Programmable gate array)や、ASIC(Application Specific Integrated Circuit)等の専用の集積回路により構成される。距離計算処理部250は、単眼カメラ部111、112及びレーザ信号処理部240に対して、撮影タイミング及びレーザ光の投受光タイミングを制御するための同期制御信号を出力する。なお、距離計算処理部250をCPU、ROM、RAM等で構成された情報処理基盤によって構成してもよい。 The distance calculation processing unit 250 is composed of, for example, a dedicated integrated circuit such as an FPGA (Field-Programmable gate array) or an ASIC (Application Specific Integrated Circuit). The distance calculation processing unit 250 outputs a synchronization control signal for controlling the photographing timing and the laser light emission / reception timing to the monocular camera units 111 and 112 and the laser signal processing unit 240. The distance calculation processing unit 250 may be configured by an information processing platform composed of a CPU, ROM, RAM, and the like.

距離計算処理部250は、単眼カメラ部111より送信された比較画像、単眼カメラ部112より送信された基準画像をもとに視差画像を生成する。視差画像の生成方法は、公知のマッチング処理技術を用いることが可能であり、例えば、SSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)等のマッチング方法を用いることができる。また、距離計算処理部250は、後述のMPU270によって解析された視差画像のクラスタ情報から、注目領域を設定し、レーザ信号処理部240に同期制御信号として送信し、レーザ光源およびレーザ信号処理部240の制御を行う。また、距離計算処理部250は、レーザ信号処理部240より送信された検出信号に基づいて、距離情報を生成する。距離計算処理部250は、生成した視差画像、距離情報をメモリ260に格納する。なお、レーザ信号処理部240からの検出信号に基づく距離の算出方法は、第1実施形態と同様である。 The distance calculation processing unit 250 generates a parallax image based on the comparison image transmitted from the monocular camera unit 111 and the reference image transmitted from the monocular camera unit 112. As a method for generating a parallax image, a known matching processing technique can be used, for example, SSD (Sum of Squared Difference), ZSD (Zero-mean Sum of Squared Difference), SAD (Sum of Absolute Difference), ZSAD. A matching method such as (Zero-mean Sum of Absolute Difference) can be used. Further, the distance calculation processing unit 250 sets a region of interest from the cluster information of the parallax image analyzed by the MPU 270 described later, transmits it to the laser signal processing unit 240 as a synchronization control signal, and transmits the laser light source and the laser signal processing unit 240. To control. Further, the distance calculation processing unit 250 generates distance information based on the detection signal transmitted from the laser signal processing unit 240. The distance calculation processing unit 250 stores the generated parallax image and distance information in the memory 260. The method of calculating the distance based on the detection signal from the laser signal processing unit 240 is the same as that of the first embodiment.

メモリ260は、距離計算処理部250にて生成された視差画像、距離情報を格納する。また、メモリ260は、距離計算処理部250及びMPU270が各種処理を実行する際のワークエリアを提供する。 The memory 260 stores the parallax image and the distance information generated by the distance calculation processing unit 250. The memory 260 also provides a work area for the distance calculation processing unit 250 and the MPU 270 to execute various processes.

MPU270は、制御基板収納部202に収納された各部を制御するとともに、メモリ260に格納された視差画像、距離情報を解析する解析処理を行う。解析処理の一つとして、クラスタリング処理と物体検出処理を含むものがある。クラスタリング処理は、例えば、視差画像の視差値が近い画素を一つのクラスタとして連結し、視差画素のクラスタ分けを行う処理である。なお、視差画像の各画素の視差を実空間の単位に置き換え、三次元情報として変換処理をした後にクラスタリング処理を行ってもよい。クラスタリング処理により算出されたクラスタ情報には、各クラスタとして存在する物体のサイズ情報や位置情報、色情報(RGB情報)が含まれる。さらに、複数フレームのクラスタに用いることで各クラスタの移動情報(速度情報や移動ベクトル情報を含む移動に関する情報)をクラスタ情報に含めてもよい。MPU270は、距離画像に対してもクラスタリング処理を行い、視差画像および距離情報から算出されたクラスタ情報を用いて物体検出処理を行う。視差画像や距離画像から物体を検出するクラスタリング処理は、上記以外の方法でも良く、例えば、K−MEANS法、CLARANS法、BIRCH法、CURE法などのクラスタリング方法を使用しても良い。 The MPU 270 controls each unit stored in the control board storage unit 202, and performs an analysis process for analyzing the parallax image and the distance information stored in the memory 260. One of the analysis processes includes a clustering process and an object detection process. The clustering process is, for example, a process of connecting pixels having similar parallax values in a parallax image as one cluster and dividing the parallax pixels into clusters. The parallax of each pixel of the parallax image may be replaced with a unit in the real space, and the parallax processing may be performed after the conversion processing as three-dimensional information. The cluster information calculated by the clustering process includes size information, position information, and color information (RGB information) of objects existing as each cluster. Further, the movement information of each cluster (information about movement including speed information and movement vector information) may be included in the cluster information by using it for a cluster of a plurality of frames. The MPU 270 also performs a clustering process on the distance image, and performs an object detection process using the cluster information calculated from the parallax image and the distance information. The clustering process for detecting an object from a parallax image or a distance image may be performed by a method other than the above, and for example, a clustering method such as a K-MEANS method, a CLARANS method, a BIRCH method, or a CURE method may be used.

《制御装置のソフトウェア構成》
次に、物体検出装置400の制御装置(制御系)の機能について説明する。図26は、物体検出装置400の制御装置の機能の一例を示す機能ブロック図である。
<< Software configuration of control device >>
Next, the function of the control device (control system) of the object detection device 400 will be described. FIG. 26 is a functional block diagram showing an example of the function of the control device of the object detection device 400.

制御装置の機能は、図26に示されるように、測定制御部、注目領域設定部、視差画像生成部、解析処理部、時間計測部、距離演算部で構成される。それぞれの機能は、距離計算処理部(FPGA)250、メモリ260、MPU270により実現される。測定制御部は、監視制御装置の制御にしたがって起動し、第1撮像系、第2撮像系、投光系、受光系、信号処理系のそれぞれから信号を受信するとともに、それぞれを制御する。また、注目領域設定部により設定された注目領域に応じて、受光系、投光系、信号処理系のいずれか少なくとも1つに対して、注目領域の検出精度向上処理(例えば、注目領域に対して投光光量を上げる、注目領域に対して投光周期を短くする、注目領域に対して受光信号の積算回数を増やす、注目領域に対してフレームレートを下げる)を行う。視差画像生成部は、第1撮像系、第2撮像系から取得した基準画像および比較画像から視差画像を生成する。解析処理部は、視差画像生成部が生成した視差画像に対してクラスタリング処理を行い、クラスタ情報を注目領域設定部に送信する。さらに、注目領域に対する検出精度向上処理後の信号処理系から取得した距離情報およびクラスタ情報から、物体検出処理を行う。注目領域設定部は、解析処理部から取得したクラスタ情報をもとに注目領域を設定する。時間計測部と距離演算部の機能は、第1実施形態で説明したのと概ね同様である。第4実施形態では、距離演算部が測定制御部にのみ距離データを送り、測定制御部が、受け取った距離データを監視制御装置に送る点が第1実施形態と異なる。 As shown in FIG. 26, the function of the control device includes a measurement control unit, a region of interest setting unit, a parallax image generation unit, an analysis processing unit, a time measurement unit, and a distance calculation unit. Each function is realized by the distance calculation processing unit (FPGA) 250, the memory 260, and the MPU 270. The measurement control unit is activated according to the control of the monitoring control device, receives signals from each of the first imaging system, the second imaging system, the floodlight system, the light receiving system, and the signal processing system, and controls each of them. Further, depending on the attention region set by the attention region setting unit, the detection accuracy improvement processing of the attention region (for example, for the attention region) is performed for at least one of the light receiving system, the light projection system, and the signal processing system. The amount of projected light is increased, the projecting period is shortened with respect to the region of interest, the number of times the received light signal is integrated with respect to the region of interest is increased, and the frame rate is decreased with respect to the region of interest). The parallax image generation unit generates a parallax image from the reference image and the comparison image acquired from the first imaging system and the second imaging system. The analysis processing unit performs clustering processing on the parallax image generated by the parallax image generation unit, and transmits the cluster information to the attention area setting unit. Further, the object detection process is performed from the distance information and the cluster information acquired from the signal processing system after the detection accuracy improvement process for the region of interest. The attention area setting unit sets the attention area based on the cluster information acquired from the analysis processing unit. The functions of the time measurement unit and the distance calculation unit are substantially the same as those described in the first embodiment. The fourth embodiment is different from the first embodiment in that the distance calculation unit sends the distance data only to the measurement control unit, and the measurement control unit sends the received distance data to the monitoring control device.

《制御装置のハードウェア構成》
次に、物体検出装置400の制御装置(制御系)のハードウェア構成について簡単に説明する。図27は、物体検出装置400の制御装置のハードウェア構成の一例を示すブロック図である。
<< Hardware configuration of control device >>
Next, the hardware configuration of the control device (control system) of the object detection device 400 will be briefly described. FIG. 27 is a block diagram showing an example of the hardware configuration of the control device of the object detection device 400.

物体検出装置400の制御装置は、図27に示されるように、CPU、RAM、ROM、FPGA、外部I/Fにより実現される。詳述すると、図26の視差画像生成部、時間計測部及び距離演算部はFPGAにより実現され、図26の測定制御部、注目領域設定部及び解析処理部はCPUにより実現される。 As shown in FIG. 27, the control device of the object detection device 400 is realized by a CPU, RAM, ROM, FPGA, and an external I / F. More specifically, the parallax image generation unit, the time measurement unit, and the distance calculation unit in FIG. 26 are realized by the FPGA, and the measurement control unit, the attention area setting unit, and the analysis processing unit in FIG. 26 are realized by the CPU.

《物体検出処理7》
第4実施形態の物体検出処理の一例である物体検出処理7について図28を参照して説明する。
図28のフローチャートは、測定制御部によって実行される処理アルゴリズムに基づいている。物体検出処理7は、監視制御装置から測定開始要求を受けたときに開始される。監視制御装置は、例えば物体検出装置が搭載された車両の電気系統がONになったときに、物体検出装置に測定開始要求を送る。
<< Object detection process 7 >>
The object detection process 7, which is an example of the object detection process of the fourth embodiment, will be described with reference to FIG. 28.
The flowchart of FIG. 28 is based on a processing algorithm executed by the measurement control unit. The object detection process 7 is started when a measurement start request is received from the monitoring control device. The monitoring control device sends a measurement start request to the object detection device, for example, when the electric system of the vehicle equipped with the object detection device is turned on.

最初のステップS201では、第1撮像系により基準画像を撮像し、第1撮像系と同期した第2撮像系により比較画像を撮像する。 In the first step S201, the reference image is captured by the first imaging system, and the comparative image is captured by the second imaging system synchronized with the first imaging system.

次のステップS202では、視差画像生成部が基準画像と比較画像に対してマッチング処理を行い、視差を算出し、視差画像を生成する。 In the next step S202, the parallax image generation unit performs matching processing on the reference image and the comparison image, calculates the parallax, and generates the parallax image.

ステップS203では、解析処理部がクラスタリング処理を行う。具体的には、視差画像内の視差をクラスタ分けし、各クラスタのサイズ情報、位置情報、移動情報を含むクラスタ情報を生成し、注目領域設定部に出力する。 In step S203, the analysis processing unit performs a clustering process. Specifically, the parallax in the parallax image is divided into clusters, cluster information including size information, position information, and movement information of each cluster is generated, and output to the attention area setting unit.

ステップS204では、測定制御部が、解析処理部から出力されたクラスタ情報が存在するか否かを判断する。クラスタ情報が存在しない場合はステップS207に移行し、クラスタ情報が存在する場合はステップS205に移行する。 In step S204, the measurement control unit determines whether or not the cluster information output from the analysis processing unit exists. If the cluster information does not exist, the process proceeds to step S207, and if the cluster information exists, the process proceeds to step S205.

ステップS205では、注目領域設定部がクラスタ情報に基づいて注目領域を設定する。 In step S205, the attention area setting unit sets the attention area based on the cluster information.

ステップS206では、測定制御部が、受光系、投光系、信号処理系のいずれか少なくとも1つに対して、注目領域の検出精度が向上するようにライダを設定する。例えば、注目領域に対して投光光量を上げる、注目領域に対して投光周期を短くする、注目領域に対して受光信号の積算回数を増やす、注目領域に対してフレームレートを下げる等の設定を行う。 In step S206, the measurement control unit sets the rider for at least one of the light receiving system, the light projecting system, and the signal processing system so that the detection accuracy of the region of interest is improved. For example, settings such as increasing the amount of projected light for the region of interest, shortening the projecting cycle for the region of interest, increasing the number of times the received signal is integrated for the region of interest, and decreasing the frame rate for the region of interest. I do.

ステップS207では、測定制御部の制御にしたがってライダ(投光系、受光系、信号処理系)による測距を行い、距離情報を取得する。 In step S207, distance measurement is performed by a rider (light projection system, light receiving system, signal processing system) according to the control of the measurement control unit, and distance information is acquired.

ステップS208では、クラスタ情報および距離情報から、検出領域に存在する物体までの距離を測定する。なお、クラスタ情報および距離情報のうち、所定の物体までの距離が異なる場合は、距離情報を優先する。 In step S208, the distance to the object existing in the detection area is measured from the cluster information and the distance information. If the distance to a predetermined object is different among the cluster information and the distance information, the distance information has priority.

ステップS209では、処理を終了するか否かを判断する。ここでの判断は、監視制御装置から測定終了要求を受けているときに肯定され、受けていないときに否定される。 In step S209, it is determined whether or not to end the process. The judgment here is affirmed when the measurement end request is received from the monitoring control device, and is denied when the measurement end request is not received.

以上の物体検出処理により、クラスタ情報を用いて注目領域を設定し、注目領域におけるライダの測距精度を向上させる処理を行うことで、注目したクラスタに対して高精度に測距を行うことができる。例えば、クラスタ情報のうち、最接近しているクラスタの存在している領域に対してライダの測距精度が高くなるように測定を行うことで、衝突可能性が高い最接近物体領域に対して高精度のライダ測距を行うことが可能となる。なお、第4実施形態では、第1実施形態と同様の非走査型のライダを例にとって説明したが、第2実施形態と同様の走査型のライダを採用しても良い。 By the above object detection process, the region of interest is set using the cluster information, and the distance measurement accuracy of the rider in the region of interest is improved, so that the cluster of interest can be measured with high accuracy. can. For example, in the cluster information, by measuring so that the distance measurement accuracy of the rider is high for the area where the closest cluster exists, the closest object area with a high possibility of collision can be measured. It is possible to perform high-precision rider distance measurement. In the fourth embodiment, the same non-scanning type rider as in the first embodiment has been described as an example, but the same scanning type rider as in the second embodiment may be adopted.

以上説明した第1〜第4実施形態の物体検出装置100、200、300、400は、第1の観点からすると、光源を含む投光系と、該投光系から投光され物体で反射された光を受光する、受光素子を有する光検出器を含む受光系と、光検出器の出力信号又は該出力信号に基づく信号が入力される信号処理系と、投光系の投光範囲内の少なくとも1つの領域を注目領域として設定し、該注目領域に対する投光系の投光条件及び信号処理系の処理条件の少なくとも一方を、注目領域へ投光するときと非注目領域(投光範囲における注目領域以外の領域)に投光するときとで異ならせる制御系と、を備える物体検出装置である。 From the first viewpoint, the object detection devices 100, 200, 300, and 400 of the first to fourth embodiments described above are reflected by the light projecting system including the light source and the light projected from the light projecting system and reflected by the object. A light receiving system including a light detector having a light receiving element that receives the light, a signal processing system in which an output signal of the light detector or a signal based on the output signal is input, and a light projecting range within the light projecting range of the light projecting system. At least one region is set as the region of interest, and at least one of the light projection condition of the projection system and the processing condition of the signal processing system with respect to the region of interest is projected to the region of interest and the non-attention region (in the projection range). It is an object detection device provided with a control system that makes it different from when light is projected onto an area other than the area of interest.

この場合、例えば、制御系が、投光条件及び処理条件の少なくとも一方を、注目領域へ投光するときの方が非注目領域へ投光するときよりも物体に関する情報を検出するのに有利な条件に設定することにより、注目領域に存在する物体(特定の物体)に関する情報を、非注目領域に存在する物体に関する情報よりも精度良く検出することができる。 In this case, for example, it is more advantageous for the control system to detect information about the object when at least one of the light projection condition and the processing condition is projected to the attention region than when the light is projected to the non-focus region. By setting the conditions, information about an object existing in the region of interest (a specific object) can be detected more accurately than information about an object existing in the non-region of interest.

この結果、特定の物体に関する情報(物体情報)の検出精度を向上できる。 As a result, the detection accuracy of information (object information) related to a specific object can be improved.

また、第1〜第4実施形態の物体検出装置100、200、300、400は、第2の観点からすると、光源を含む投光系と、該投光系から投光され物体で反射された光を受光する、受光素子を有する光検出器を含む受光系と、光検出器の出力信号又は該出力信号に基づく信号が入力される二値化処理部(信号検出部)を含む信号処理系と、投光系の投光範囲内の少なくとも1つの領域を注目領域として設定し、該注目領域への投光による光検出器の出力信号又は該出力信号に基づく信号が二値化処理部で二値化(検出)されるように投光系及び信号処理系の少なくとも一方を制御する制御系と、を備える物体検出装置である。 Further, from the second viewpoint, the object detection devices 100, 200, 300, and 400 of the first to fourth embodiments are projected by the light projecting system including the light source and the light projecting system and reflected by the object. A signal processing system including a light receiving system including a light detector having a light receiving element that receives light, and a binarization processing unit (signal detection unit) into which an output signal of the light detector or a signal based on the output signal is input. Then, at least one region within the light projection range of the light projection system is set as a region of interest, and the output signal of the light detector due to the projection of light into the region of interest or the signal based on the output signal is binarized by the binarization processing unit. It is an object detection device including a control system that controls at least one of a light projection system and a signal processing system so as to be binarized (detected).

この場合、注目領域への投光による光検出器の出力信号(注目領域に存在する物体からの反射光に基づく信号)を高い精度で検出できる。 In this case, the output signal of the photodetector (the signal based on the reflected light from the object existing in the region of interest) due to the projection of the light onto the region of interest can be detected with high accuracy.

この結果、特定の物体に関する情報(物体情報)の検出精度を向上できる。 As a result, the detection accuracy of information (object information) related to a specific object can be improved.

すなわち、第1〜第4実施形態の物体検出装置100、200、300、400によれば、物体までの距離や、物体の移動の有無、物体の反射率、大きさ、形状等によらず、物体の有無、物体までの距離、物体の位置、物体の大きさ、物体の形状等の物体に関する情報を精度良く検出することが可能となる。特に、遠距離物体、低反射物体、小物体などは、光量のロスが大きく、従来は検出することが困難であったが、物体検出装置100、200、300によれば、確実に検出することが可能である。 That is, according to the object detection devices 100, 200, 300, 400 of the first to fourth embodiments, regardless of the distance to the object, the presence or absence of movement of the object, the reflectance, size, shape, etc. of the object, It is possible to accurately detect information about an object such as the presence / absence of an object, the distance to the object, the position of the object, the size of the object, and the shape of the object. In particular, long-distance objects, low-reflection objects, small objects, etc. have a large loss of light quantity and have been difficult to detect in the past, but according to the object detection devices 100, 200, and 300, they can be reliably detected. Is possible.

要するに、第1〜第4実施形態の物体検出装置100、200、300、400は、注目領域を決定後、システム的な制御によって、SN比を向上させ、これまで検出困難だった物体も検出可能とする。つまりは、より遠距離、より低反射、より小さな物体に関する情報を検出可能となる。 In short, the object detection devices 100, 200, 300, and 400 of the first to fourth embodiments improve the SN ratio by systematic control after determining the region of interest, and can detect an object that has been difficult to detect until now. And. That is, it is possible to detect information about a longer distance, a lower reflection, and a smaller object.

また、制御系は、注目領域に対する投光光量が非注目領域に対する投光光量よりも大きくなるように投光系を制御しても良い。 Further, the control system may control the light projection system so that the amount of light projected on the region of interest is larger than the amount of light projected on the non-area of interest.

この場合、注目領域からの反射光の光量を増加させ、受光信号のSN比を向上させることが可能となる。 In this case, it is possible to increase the amount of reflected light from the region of interest and improve the SN ratio of the received signal.

また、制御系は、注目領域に対する投光周期が非注目領域に対する投光周期よりも短くなるように投光系制御しても良い。 Further, the control system may control the light projection system so that the light projection period for the attention region is shorter than the light projection period for the non-attention region.

この場合、注目領域からの反射光の1フレーム毎の受光回数を増やすことができ、受光信号のSN比を向上させることができる。 In this case, the number of times of receiving the reflected light from the region of interest for each frame can be increased, and the SN ratio of the received signal can be improved.

また、制御系は、投光系を制御して注目領域に対して連続して複数回の投光を行い、信号処理系は、複数回の投光による光検出器の複数の出力信号を平均化及び/又は積算し、得られた信号を二値化処理部に出力する平均化/積算処理部を更に含んでも良い。具体的には、光検出器が受光し光電変換した信号電荷を容量(コンデンサ)に蓄積し、1フレームを構成する際の、蓄積回数を増加させる。この際、注目領域において、フレームレートを下げても良いし、発光周波数を上げても良い(投光周期を短くしても良い)。 In addition, the control system controls the light projection system to continuously project light to the region of interest a plurality of times, and the signal processing system averages a plurality of output signals of the photodetector due to the multiple light projections. It may further include an averaging / integrating processing unit that converts and / or integrates and outputs the obtained signal to the binarization processing unit. Specifically, the signal charge received by the photodetector and photoelectrically converted is stored in a capacitance (capacitor) to increase the number of times of storage when forming one frame. At this time, in the region of interest, the frame rate may be lowered or the emission frequency may be raised (the photoperiod may be shortened).

この場合、注目領域に存在する物体からの信号光(反射光)を連続して複数回受光することにより、信号光レベルを向上させることができ、SN比の向上が可能となる。 In this case, the signal light level can be improved and the SN ratio can be improved by continuously receiving the signal light (reflected light) from the object existing in the region of interest a plurality of times.

また、二値化処理部に信号検出用の閾値thが設定され、制御系は、投光系から投光されていないときの光検出器の出力から外乱ノイズレベル(ノイズレベル)を取得し、該外乱ノイズレベルを基準に閾値thを設定する。 In addition, the threshold value th for signal detection is set in the binarization processing unit, and the control system acquires the disturbance noise level (noise level) from the output of the photodetector when the light is not projected from the light projection system. The threshold value th is set with reference to the disturbance noise level.

この場合、注目領域に存在する物体からの信号光(反射光)の信号レベルを外乱ノイズレベルよりも十分に大きくなるように制御することが可能となり、SN比の向上が可能となる。また、閾値が外乱ノイズレベルよりも大きく設定されることで、誤検出を防止できる。 In this case, it is possible to control the signal level of the signal light (reflected light) from the object existing in the region of interest so as to be sufficiently higher than the disturbance noise level, and it is possible to improve the SN ratio. Further, by setting the threshold value to be larger than the disturbance noise level, erroneous detection can be prevented.

なお、ノイズレベルを判別するために、例えば、光源を消灯している状態の受光信号レベルであるノイズレベルを保持しておき、光源を点灯している状態の受光信号レベルからノイズレベルを差し引いた後のレベルを信号光のレベルとし、これが基準値をクリアするように投光光量、投光周期、電荷蓄積時間を増やしてSN比を増加させても良い。もしくは、ノイズを差し引かなくとも、ノイズレベルが判別できていれば、ノイズレベルと信号光レベルを比較することができ、その比率、つまりSN比が所定の基準値を上回るように駆動してSN比を上げることが可能となる。 In order to determine the noise level, for example, the noise level, which is the received signal level when the light source is turned off, is held, and the noise level is subtracted from the received signal level when the light source is turned on. The latter level may be set as the signal light level, and the SN ratio may be increased by increasing the light source light amount, the light source period, and the charge accumulation time so that this level clears the reference value. Alternatively, even if the noise is not subtracted, if the noise level can be determined, the noise level and the signal light level can be compared, and the ratio, that is, the SN ratio is driven so as to exceed a predetermined reference value. It becomes possible to raise.

また、制御系は、投光範囲に物体が存在しないとき、投光範囲全域に対する投光系の投光条件及び信号処理系の処理条件を、注目領域に対する投光系の投光条件及び信号処理系の処理条件と同等にすることが好ましい。検出領域全域で物体が検出されない場合、つまり、近くに物体がない場合、急いで物体情報の検出を行う必要がないため、例えばフレームレートを落としてSN比を稼ぎ、より長距離、より低反射、より小さな物体の検出が可能となる。この結果、より長期的視野での周囲環境予測を可能となる。 In addition, when there is no object in the projection range, the control system sets the projection conditions and signal processing conditions of the projection system for the entire projection range, and the projection conditions and signal processing of the projection system for the region of interest. It is preferable to make it equivalent to the processing conditions of the system. When an object is not detected in the entire detection area, that is, when there is no object nearby, it is not necessary to detect the object information in a hurry. , It is possible to detect smaller objects. As a result, it becomes possible to predict the surrounding environment from a longer-term perspective.

また、制御系は、注目領域設定後、該注目領域にのみ投光しても良い。この場合、光源の長寿命化及び省電力化を図ることができる。 Further, the control system may project light only on the region of interest after setting the region of interest. In this case, the life of the light source can be extended and the power can be saved.

また、制御系は、投光系からの投光による信号処理系の出力に基づいて注目領域を設定することができる。具体的には、ライダ自身の前フレームの検出結果を利用して物体の有無、物体の位置情報、移動情報を求めて、注目領域を設定することができる。 Further, the control system can set the region of interest based on the output of the signal processing system by the light projection from the light projection system. Specifically, the region of interest can be set by obtaining the presence / absence of an object, the position information of the object, and the movement information by using the detection result of the previous frame of the rider itself.

この場合、他のセンシングデバイスを別途設けることなく、注目領域を設定できる。 In this case, the region of interest can be set without separately providing another sensing device.

また、第2実施形態の物体検出装置200では、投光系は、光源からの光を走査する走査手段を更に含み、制御系は、光源及び走査手段の少なくとも一方を制御する。 Further, in the object detection device 200 of the second embodiment, the projection system further includes scanning means for scanning the light from the light source, and the control system controls at least one of the light source and the scanning means.

なお、走査手段としては、MEMSミラーやポリゴンミラーが想定される。MEMSミラーの場合は、注目領域のみを走査、もしくは、注目領域が一点のみであれば、その一点に光ビームが偏向される角度で静止させても良い。ポリゴンミラーの場合は、回転させ続ける間、注目領域を走査しているときのみ光源を点灯させることによって、光源の点灯時間を抑えて、光源の高寿命化をはかるとともに、注目領域のみ光量を上げたり蓄積時間を上げたりすることで注目領域のSN比を増加させることが可能となる。 As the scanning means, a MEMS mirror or a polygon mirror is assumed. In the case of the MEMS mirror, only the region of interest may be scanned, or if there is only one region of interest, the light beam may be stationary at an angle at which the light beam is deflected. In the case of a polygon mirror, by turning on the light source only when scanning the area of interest while continuing to rotate, the lighting time of the light source is suppressed, the life of the light source is extended, and the amount of light is increased only in the area of interest. It is possible to increase the SN ratio of the region of interest by increasing the accumulation time or the accumulation time.

また、光源の駆動条件を一定として、走査手段による注目領域の走査速度を非注目領域の走査速度より遅くしても良い。この場合、注目領域への光ビームの照射回数を増やすことができ、注目領域への光量密度を増加させて、受光信号のSN比を向上することが可能となる。 Further, the scanning speed of the region of interest by the scanning means may be slower than the scanning speed of the region of interest, while the driving conditions of the light source are constant. In this case, the number of times the light beam is irradiated to the region of interest can be increased, the density of light intensity to the region of interest can be increased, and the SN ratio of the received signal can be improved.

また、走査手段の動作条件を一定として、前記注目領域に対する光源の発光周期を短くしても良い。この場合、注目領域への光ビームの照射回数を増やすことができ、注目領域への光量密度を増加させて、受光信号のSN比を向上することが可能となる。 Further, the light emission cycle of the light source with respect to the region of interest may be shortened while the operating conditions of the scanning means are constant. In this case, the number of times the light beam is irradiated to the region of interest can be increased, the density of light intensity to the region of interest can be increased, and the SN ratio of the received signal can be improved.

また、第3実施形態の物体検出装置300は、投光範囲をセンシングするセンシング装置を更に備え、制御系は、センシング装置の出力に基づいて注目領域を設定する。 Further, the object detection device 300 of the third embodiment further includes a sensing device that senses the projection range, and the control system sets a region of interest based on the output of the sensing device.

この場合、物体検出装置300とは異なる特性を有するセンシング装置を用いることにより、注目領域をより精度良く設定することが可能となる。 In this case, by using a sensing device having characteristics different from that of the object detection device 300, it is possible to set the region of interest with higher accuracy.

センシング装置として、カメラ、ミリ波レーダ、赤外線センサなどが挙げられる。カメラに関しては、ライダに比べて、角度分解能が高くより小さい物体などへの検知に優れるが、距離分解能が低く物体までの距離を精度よく検出できない。このため、注目領域をより精度良くカメラで判断した後、ライダによって注目領域のSN比を上げながら物体検出を行うことにより、非注目状態に比べてより遠距離・高精度な物体検出を実現できる。ミリ波レーダに関しては、ライダに比べて、雨や霧のときの検出信頼性、つまり耐候性が優れるが、検出領域の広角化と角度分解能の向上の両立が難しい。このため、悪天候時のおおまかな物体検出をミリ波レーダで行って注目領域を判断した後、ライダによって注目領域のSN比を上げながら物体検出を行うことにより、非注目状態に比べてより悪天候時での高精度な物体検出を実現できる。赤外線センサは、ライダに比べて低コストであるが、検出距離が短く、精度も低い。このため、上述したシステムの廉価版として、コストアップを抑えつつ実現することができる。また、センシング装置の検出結果に加えて、ライダ自身の前フレーム以前の検出結果も加味して注目領域を設定しても良い。 Examples of the sensing device include a camera, a millimeter wave radar, and an infrared sensor. As for the camera, the angle resolution is higher and the detection of a smaller object is superior to that of the rider, but the distance resolution is low and the distance to the object cannot be detected accurately. Therefore, after the area of interest is determined more accurately by the camera, the object is detected while increasing the SN ratio of the area of interest by the rider, so that it is possible to realize object detection at a longer distance and with higher accuracy than in the non-attention state. .. Compared to lidar, millimeter-wave radar has excellent detection reliability in rain and fog, that is, weather resistance, but it is difficult to achieve both wide-angle detection area and improved angular resolution. For this reason, by performing rough object detection in bad weather with a millimeter-wave radar to determine the region of interest, and then detecting the object while increasing the SN ratio of the region of interest with the rider, it is possible to detect the object in worse weather than in the non-attention state. Highly accurate object detection can be realized. The infrared sensor is cheaper than the rider, but has a short detection distance and low accuracy. Therefore, it can be realized as a low-priced version of the above-mentioned system while suppressing the cost increase. Further, in addition to the detection result of the sensing device, the detection result before the previous frame of the rider itself may be taken into consideration to set the region of interest.

また、注目領域は、当該物体検出装置からの距離が所定距離(例えば200m)未満の物体(ライダの射程範囲にある物体)が存在する領域であっても良い。 Further, the region of interest may be an region in which an object (an object within the range of the rider) whose distance from the object detection device is less than a predetermined distance (for example, 200 m) exists.

すなわち、ライダの射程範囲から外れた物体は、重点的に検出する必要性に乏しいため、検出対象から除外しても良い。 That is, an object outside the range of the rider may be excluded from the detection target because it is not necessary to detect it intensively.

なお、減衰により受光量が弱くなりやすい遠距離の領域を注目領域として設定して遠距離の領域に対する検出精度を上げることで、遠距離に存在する物体の検出精度を上げることができる。このとき、遠距離の物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる位置情報を使用して判断することができる。そこで、ライダの射程範囲によっては(例えば射程範囲が200m以上のときは)、該ライダからの距離が200m以上の領域を注目領域として設定しても良い。 It is possible to improve the detection accuracy of an object existing at a long distance by setting a long-distance region where the amount of light received tends to be weakened due to attenuation as a region of interest and improving the detection accuracy for the long-distance region. At this time, it is possible to determine whether or not the object is a long-distance object by using, for example, the position information included in the cluster information acquired by the stereo camera. Therefore, depending on the range of the rider (for example, when the range is 200 m or more), a region having a distance of 200 m or more from the rider may be set as the region of interest.

また、注目領域は、投光範囲に存在する複数の物体のうち当該物体検出装置に最も近い物体が存在する領域であることが好ましい。 Further, the region of interest is preferably a region in which the object closest to the object detection device exists among the plurality of objects existing in the light projection range.

例えばロボット等の自律移動体や、安全運転支援システム(ADAS)において、最も検出を急がないといけないのは、移動体の最も近くにある物体である。この結果に基づいて、衝突を回避、または軽減する車体制御を行うため、最も近くの物体の3次元情報をより精度良く取得することが必要となる。そこで、注目領域を当該物体検出装置に最も近い物体が存在する領域に設定することで、最も近くの物体の三次元情報を精度良く取得し、車両の制御等による回避精度を上げることができる。このとき、最も近くの物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる位置情報を使用して判断することができる。 For example, in an autonomous moving body such as a robot or a safe driving support system (ADAS), the object that must be detected most urgently is the object closest to the moving body. Based on this result, in order to control the vehicle body to avoid or reduce the collision, it is necessary to acquire the three-dimensional information of the nearest object with higher accuracy. Therefore, by setting the region of interest to the region where the object closest to the object detection device exists, it is possible to accurately acquire the three-dimensional information of the nearest object and improve the avoidance accuracy by controlling the vehicle or the like. At this time, it is possible to determine whether or not the object is the closest object by using, for example, the position information included in the cluster information acquired by the stereo camera.

また、注目領域は、移動物体が存在する領域であることが好ましい。移動物体は静止物体に比べて相対位置変化の予測性が低く、衝突危険性が高いからである。このとき、移動物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる移動情報を使用して判断することができる。 Further, the region of interest is preferably a region in which a moving object exists. This is because moving objects have lower predictability of relative position changes than stationary objects and have a higher risk of collision. At this time, it can be determined whether or not the object is a moving object by using, for example, the moving information included in the cluster information acquired by the stereo camera.

また、注目領域は、投光範囲における複数の移動物体が存在する領域のうち当該物体検出装置への接近速度が最速の移動物体が存在する領域であることが好ましい。このような移動物体は、衝突危険性が特に高いからである。このとき、最速の移動物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる移動情報を使用して判断することができる。 Further, the region of interest is preferably a region in which a moving object having the fastest approach speed to the object detection device exists among the regions in which a plurality of moving objects exist in the light projection range. This is because such a moving object has a particularly high risk of collision. At this time, it can be determined whether or not it is the fastest moving object by using, for example, the moving information included in the cluster information acquired by the stereo camera.

また、注目領域は、低反射物体が存在する領域であることが好ましい。低反射物体は、検出漏れのリスクが高いからである。このとき、低反射物体かどうかの判断は、例えば、ステレオカメラにより取得したクラスタ情報に含まれる色情報を使用して判断することができる。 Further, the region of interest is preferably a region in which a low-reflection object exists. This is because low-reflection objects have a high risk of detection omission. At this time, it can be determined whether or not the object is a low-reflection object by using, for example, the color information included in the cluster information acquired by the stereo camera.

また、第1〜第4実施形態の物体検出装置100、200、300、400と、該物体検出装置が搭載される移動体と、を備える移動体装置によれば、衝突安全性に優れた移動装置を提供できる。 Further, according to the mobile device including the object detection devices 100, 200, 300, 400 of the first to fourth embodiments and the moving body on which the object detecting device is mounted, the movement having excellent collision safety is provided. Equipment can be provided.

なお、制御系は、注目領域への投光による光検出器の出力信号を検出するための閾値である第1の閾値と、注目領域以外の領域への投光による光検出器の出力信号を検出するための閾値である、第1の閾値よりも小さい第2の閾値を設定しても良い。この際、制御系は、注目領域への投光に関与する発光部と非注目領域への投光に関与する発光部を特定する情報を二値化処理部に送る必要がある。具体的には、各SN比維持向上処理の冒頭に「注目領域に対する閾値を上げる。」という処理を加えれば良い。 The control system sets the first threshold value, which is a threshold value for detecting the output signal of the light detector due to the projection of light onto the region of interest, and the output signal of the optical detector due to the projection of light onto the region other than the region of interest. A second threshold value smaller than the first threshold value, which is a threshold value for detection, may be set. At this time, the control system needs to send information for identifying the light emitting unit involved in the projection to the region of interest and the light emitting unit involved in the projection to the non-attention region to the binarization processing unit. Specifically, a process of "raising the threshold value for the region of interest" may be added at the beginning of each SN ratio maintenance / improvement process.

この場合、注目領域からの信号光の信号レベルを非注目領域からの信号光の信号レベルよりも確実に高くでき、注目領域に対するSN比を向上させることができる。 In this case, the signal level of the signal light from the attention region can be surely higher than the signal level of the signal light from the non-attention region, and the SN ratio with respect to the attention region can be improved.

また、物体検出装置における注目領域の設定方法は、上記各実施形態で説明した方法に限られない。要は、移動体の速度や周辺環境等に応じて注目すべき優先度の高い領域を注目領域として設定することが好ましい。 Further, the method of setting the region of interest in the object detection device is not limited to the method described in each of the above embodiments. In short, it is preferable to set a region of high priority that should be noted according to the speed of the moving body, the surrounding environment, etc. as the region of interest.

例えば、物体検出装置が搭載された移動体の移動速度が速い場合(例えば車両が高速走行中)に、特に前方を注目する必要性が高いため、投光範囲の中央領域を注目領域として設定しても良い。具体的には、投光範囲を上側領域、中央領域、下側領域のように移動体の移動面に略垂直な方向に3分割し、中央領域を注目領域として設定し、中央領域に対するライダの投光量を上げる。これにより、移動速度が速いときに注視する必要性が高い領域である中央領域において、物体検出を高精度化することができる。 For example, when the moving speed of a moving object equipped with an object detection device is high (for example, when the vehicle is traveling at high speed), it is highly necessary to pay particular attention to the front, so the central region of the projection range is set as the region of interest. You may. Specifically, the light projection range is divided into three in a direction substantially perpendicular to the moving surface of the moving body such as the upper region, the central region, and the lower region, the central region is set as the region of interest, and the lidar with respect to the central region Increase the amount of light projected. As a result, it is possible to improve the accuracy of object detection in the central region, which is a region that needs to be watched when the moving speed is high.

例えば、移動体の移動速度が遅い場合(例えば車両が低速走行中)に、特に両側を注目する必要性が高いため(飛び出し等に対処するため)、投光範囲の両側領域を注目領域として設定しても良い。具体的には、投光範囲を左側領域、中央領域、右側領域のように移動体の移動面に略平行な方向に3分割し、左側領域と右側領域を注目領域として設定し、左側領域と右側領域に対するライダの投光量を上げる。これにより、移動速度が遅いときに注視する必要性が高い領域である左側領域および右側領域において、物体検出を高精度化することができる。 For example, when the moving speed of the moving body is slow (for example, when the vehicle is traveling at low speed), it is highly necessary to pay attention to both sides (to deal with popping out, etc.), so the areas on both sides of the projection range are set as the areas of interest. You may. Specifically, the light projection range is divided into three in a direction substantially parallel to the moving surface of the moving body such as the left side region, the center region, and the right side region, and the left side region and the right side region are set as the attention region, and the left side region and the left side region are set. Increase the amount of light emitted by the rider to the right area. As a result, it is possible to improve the accuracy of object detection in the left side region and the right side region, which are regions that need to be watched when the moving speed is slow.

例えば、物体検出装置がライダとカメラを有する場合に、投光範囲の中央領域に対してはカメラの撮像結果を用いて注目領域を設定し、投光範囲の両側領域に対してはライダの検出結果を用いて注目領域を設定しても良い。 For example, when the object detection device has a lidar and a camera, the region of interest is set for the central region of the projection range using the image pickup result of the camera, and the lidar is detected for both regions of the projection range. The region of interest may be set using the result.

例えば、物体検出装置がライダとカメラを有する場合に、投光範囲の遠距離レンジに対してはライダの検出結果を用いて注目領域を設定し、投光範囲の短距離レンジに対してはカメラの撮像結果を用いて注目領域を設定しても良い。 For example, when the object detection device has a lidar and a camera, the region of interest is set using the detection result of the lidar for the long-distance range of the floodlight range, and the camera is set for the short-distance range of the floodlight range. The region of interest may be set using the imaging result of.

例えば、物体検出装置がライダとステレオカメラを有する場合に、視差マッチングの精度が低い領域(例えばテクスチャ量の少ない領域等)に移動物体や小物体があると推定し、該領域を注目領域として設定しても良い。なお、テクスチャ量が多い領域は、路面や巨大な構造物等であると推定できる。 For example, when the object detection device has a rider and a stereo camera, it is estimated that there is a moving object or a small object in a region where the parallax matching accuracy is low (for example, a region with a small amount of texture), and that region is set as a region of interest. You may. It can be estimated that the region with a large amount of texture is a road surface, a huge structure, or the like.

例えば、物体検出装置がライダと、単眼カメラもしくはステレオカメラを有する場合に、カメラの輝度画像から、テクスチャ量が少ないと判定された領域を注目領域として設定しても良い。ステレオカメラは、テクスチャ量が少ない領域は視差マッチング精度が低くなるため、テクスチャ量と精度があまり関係しないライダを用いて、その領域を集中的に見ることで、物体検出を高精度化することができる。 For example, when the object detection device has a rider and a monocular camera or a stereo camera, a region determined to have a small amount of texture from the luminance image of the camera may be set as a region of interest. In a stereo camera, the parallax matching accuracy is low in an area with a small amount of texture, so it is possible to improve the accuracy of object detection by focusing on the area using a rider whose accuracy is not so related to the amount of texture. can.

例えば、物体検出装置がライダとステレオカメラを有する場合に、エッジであると判断された領域を注目領域として設定しても良い。具体的には、ステレオカメラにより生成された視差画像に例えば微分エッジ検出法によるエッジ検出処理を行い、エッジであると判断された領域(類似の視差が連なっている領域)を注目領域とする。このように、エッジを高精度に検出することで、物体の存在領域をより高精度に検出することが可能となる。 For example, when the object detection device has a rider and a stereo camera, a region determined to be an edge may be set as a region of interest. Specifically, the parallax image generated by the stereo camera is subjected to edge detection processing by, for example, a differential edge detection method, and a region determined to be an edge (a region in which similar parallax is continuous) is set as a region of interest. By detecting the edge with high accuracy in this way, it is possible to detect the existing region of the object with higher accuracy.

例えば、ライダとカメラを有する物体検出装置が搭載される車両のヘッドライトで照明される領域(明るい領域)に対してはカメラの撮像結果を用いて注目領域を設定し、暗い領域に対してはライダの検出結果を用いて注目領域を設定しても良い。暗い領域に対してもライダは検出精度が高いからである。明るい領域に対しては、カメラの撮像結果を用いても高精度に検出が可能である。
また、カメラの撮像結果を用いて明るい領域(輝度値が所定値より大きい領域)と暗い領域(輝度値が所定値より小さい領域)を検出し、暗い領域を注目領域として設定してもよい。これは、明るい領域に対しては低反射物体でも検出可能なカメラの方がライダよりも検出精度が高いためライダで集中的に調べる必要性は低いが、暗い領域に対しては原理的にライダの方がカメラより検出精度が高いためにライダで集中的に調べる必要があるためある。このように、暗い領域を注目領域としてライダで集中的に検出することで、カメラ単体またはライダ単体のときよりも物体検出の高精度化が可能である。
For example, for the area illuminated by the headlights of a vehicle equipped with an object detection device having a rider and a camera (bright area), the area of interest is set using the image pickup result of the camera, and for the dark area, the area of interest is set. The region of interest may be set using the detection result of the rider. This is because the rider has high detection accuracy even in a dark area. For bright areas, it is possible to detect with high accuracy even by using the image pickup result of the camera.
Further, a bright region (a region having a luminance value larger than a predetermined value) and a dark region (a region having a luminance value smaller than a predetermined value) may be detected using the image pickup result of the camera, and the dark region may be set as a region of interest. This is because a camera that can detect even low-reflection objects in bright areas has higher detection accuracy than a rider, so there is less need for intensive examination with a rider, but in principle it is a rider for dark areas. This is because the detection accuracy of the camera is higher than that of the camera, so it is necessary to intensively investigate with a rider. In this way, by intensively detecting the dark area as the area of interest with the rider, it is possible to improve the accuracy of object detection as compared with the case of the camera alone or the rider alone.

また、上記各実施形態では、物体検出装置を車両に搭載する例について説明してきたが、例えば遠隔操作や自動操縦が可能な無人航空機(例えばドローン)に搭載しても良い。この場合も、注目領域を設定することで、特定の物体に関する情報を精度良く検出できる。このとき、飛行中の無人航空機のバランスを保つため、無人航空機の重心軸と物体検出装置300の重心軸とが同一の軸となるように、機体の下部に物体検出装置が設けることで、無人航空機の飛行をより安定させることができる。また、上記無人航空機に上記第1〜第4実施形態の物体検出装置100、200、300、400のいずれかを搭載しても良い。この場合も、注目領域を設定することで、特定の物体に関する情報を精度良く検出できる。 Further, in each of the above embodiments, an example in which the object detection device is mounted on a vehicle has been described, but the object detection device may be mounted on an unmanned aerial vehicle (for example, a drone) capable of remote control or autopilot, for example. In this case as well, by setting the region of interest, information on a specific object can be detected with high accuracy. At this time, in order to maintain the balance of the unmanned aerial vehicle in flight, an object detection device is provided at the bottom of the aircraft so that the center of gravity axis of the unmanned aerial vehicle and the center of gravity axis of the object detection device 300 are the same axis. The flight of the aircraft can be made more stable. Further, any of the object detection devices 100, 200, 300, and 400 of the first to fourth embodiments may be mounted on the unmanned aerial vehicle. In this case as well, by setting the region of interest, information on a specific object can be detected with high accuracy.

また、上記第1〜第4実施形態の物体検出装置100、200、300、400を自律して移動可能なロボットに搭載しても良い。この場合も、注目領域を設定することで、特定の物体に関する情報を精度良く検出でき、ひいてはロボットを特定の物体に対して高精度に動作させることができる。 Further, the object detection devices 100, 200, 300, 400 of the first to fourth embodiments may be mounted on an autonomously movable robot. In this case as well, by setting the region of interest, information on a specific object can be detected with high accuracy, and by extension, the robot can be operated with high accuracy on the specific object.

すなわち、本発明の物体検出装置は、TOF(タイム オブ フライト)を利用した物体情報の検出技術全般に広く適用することが可能である。 That is, the object detection device of the present invention can be widely applied to the overall object information detection technology using TOF (time of flight).

また、本発明の物体検出装置は、移動体に搭載される用途に限らず、静止物体に搭載される用途や、装置単独でも用いることができる。 Further, the object detection device of the present invention is not limited to the use mounted on a moving body, but can also be used for a use mounted on a stationary object or a device alone.

また、上記各実施形態の説明で用いた数値、形状等は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。 In addition, the numerical values, shapes, and the like used in the description of each of the above embodiments can be appropriately changed without departing from the spirit of the present invention.

以下に、発明者が上記各実施形態を発案するに至った思考プロセスを説明する。 The thinking process that led to the inventor's idea of each of the above embodiments will be described below.

物体検出装置として、例えば、車載用途では、走行中の車両前方における物体の有無や、その物体までの距離を検出するライダが知られている。ライダは、光源を点灯させて投光し、物体から反射もしくは散乱された光を光検出器で検出することで、所望の範囲における物体の有無やその物体までの距離を検出できる。これと、ステレオカメラなど、他の測距方式を組み合わせたものがこれまでに開示されている。 As an object detection device, for example, in an in-vehicle application, a rider that detects the presence or absence of an object in front of a moving vehicle and the distance to the object is known. The rider can detect the presence or absence of an object and the distance to the object in a desired range by turning on the light source, projecting light, and detecting the light reflected or scattered from the object with a photodetector. So far, a combination of this with another distance measuring method such as a stereo camera has been disclosed.

特許文献1(特開2006−284293号公報)では、低反射率の物体(低反射物体)がある領域で、信号を検出する閾値を下げることで、低反射物体の検出率を向上させている。 In Patent Document 1 (Japanese Unexamined Patent Publication No. 2006-284293), the detection rate of a low-reflection object is improved by lowering the threshold value for detecting a signal in a region where a low-reflection object (low-reflection object) exists. ..

しかしながら、特許文献1では、その測距性能が、それぞれの測距デバイスの性能の限界により限られてしまう。おもに、検出距離と精度に関わるSN比において、測距デバイスの限界性能より向上させることは困難である。 However, in Patent Document 1, the distance measuring performance is limited by the performance limit of each distance measuring device. Mainly, it is difficult to improve the SN ratio related to the detection distance and the accuracy from the limit performance of the distance measuring device.

特許文献1は、低反射物体のときに閾値を下げているが、外光などのノイズが大きい場合は、そもそも信号光がノイズよりも小さくなってしまい、閾値を下げてもノイズが検出されるだけで、物体が検出できなくなってしまう。システムとしては、最初から想定している最大のノイズレベルを狙って閾値を設定するのが最適であり、それより閾値を下げることは現実的ではない。 In Patent Document 1, the threshold value is lowered when the object is a low-reflection object, but when the noise such as external light is large, the signal light becomes smaller than the noise in the first place, and the noise is detected even if the threshold value is lowered. However, the object cannot be detected. As a system, it is optimal to set the threshold value aiming at the maximum noise level assumed from the beginning, and it is not realistic to lower the threshold value.

そこで、発明者は、以上の課題を解決するべく、物体検出装置において、注目状態を判断した上で、注目する領域についてのSN比を向上させ、より遠距離、より低反射、より小さな物体に関する情報を高精度に検出すべく、上記各実施形態を発案するに至った。 Therefore, in order to solve the above problems, the inventor determines the state of interest in the object detection device, improves the SN ratio for the region of interest, and relates to a longer distance, lower reflection, and a smaller object. In order to detect information with high accuracy, we have come up with the idea of each of the above embodiments.

1、1´…車両(移動体装置)、21…投光系、22a…受光素子(光検出器の一部)、22c…電流電圧変換器(光検出器の一部)、23…制御系、24…信号処理系、24a…平均化/積算処理部(信号処理部)、24b…二値化処理部(信号検出部)、100、200、300…物体検出装置。 1, 1'... vehicle (mobile device), 21 ... light projecting system, 22a ... light receiving element (part of photodetector), 22c ... current / voltage converter (part of photodetector), 23 ... control system , 24 ... Signal processing system, 24a ... Average / integration processing unit (signal processing unit), 24b ... Binarization processing unit (signal detection unit), 100, 200, 300 ... Object detection device.

特開2006−284293号公報Japanese Unexamined Patent Publication No. 2006-284293

Claims (14)

光源を含む投光系と、
前記投光系から投光され物体で反射された光を受光する光検出器を含む受光系と、
前記光検出器の出力信号又は該出力信号に基づく信号が入力される信号検出部を含み、検出信号を出力する信号処理系と、
前記投光系の投光範囲の少なくとも一部を撮像し第1撮像画像を出力する第1撮像系と、
前記投光範囲の少なくとも一部を撮像し第2撮像画像を出力する第2撮像系と、
前記投光範囲内の少なくとも1つの領域を前記検出信号と前記第1撮像画像と前記第2撮像画像とに基づいて注目領域として設定し、前記投光系の投光条件及び前記信号処理系の処理条件の少なくとも一方を、前記注目領域へ投光するときと前記投光範囲における前記注目領域以外の領域に投光するときとで異ならせる制御系と、を備え
物体検出装置。
A floodlight system including a light source and
A light receiving system including a photodetector that receives light projected from the light projecting system and reflected by an object, and a light receiving system.
A signal processing system that includes a signal detection unit to which an output signal of the photodetector or a signal based on the output signal is input and outputs a detection signal.
A first imaging system that captures at least a part of the projection range of the projection system and outputs a first captured image,
A second imaging system that captures at least a part of the light projection range and outputs a second captured image,
At least one region within the light projection range is set as a region of interest based on the detection signal, the first captured image, and the second captured image, and the light projection conditions of the light projection system and the signal processing system are set. at least one and a control system for different between when projected in a region other than the region of interest in the light projection range and when light is projected to the region of interest, the object detecting device Ru provided with processing conditions.
前記制御系は、前記投光条件及び前記処理条件の少なくとも一方を、前記注目領域へ投光するときの方が前記注目領域以外の領域へ投光するときよりも物体に関する情報を検出するのに有利な条件に設定することを特徴とする請求項1に記載の物体検出装置。 The control system detects information about an object when at least one of the light projection condition and the processing condition is projected onto the region of interest than when the light is projected onto a region other than the region of interest. The object detection device according to claim 1, wherein the object detection device is set to favorable conditions. 光源を含む投光系と、
前記投光系から投光され物体で反射された光を受光する光検出器を含む受光系と、
前記光検出器の出力信号又は該出力信号に基づく信号が入力される信号検出部を含み、検出信号を出力する信号処理系と、
前記投光系の投光範囲の少なくとも一部を撮像し第1撮像画像を出力する第1撮像系と、
前記投光範囲の少なくとも一部を撮像し第2撮像画像を出力する第2撮像系と、
前記投光範囲内の少なくとも1つの領域を前記検出信号と前記第1撮像画像と前記第2撮像画像とに基づいて注目領域として設定し、前記注目領域への投光による前記光検出器の出力信号又は該出力信号に基づく信号が前記信号検出部で検出されるように前記投光系及び前記信号処理系の少なくとも一方を制御する制御系と、を備え
物体検出装置。
A floodlight system including a light source and
A light receiving system including a photodetector that receives light projected from the light projecting system and reflected by an object, and a light receiving system.
A signal processing system that includes a signal detection unit to which an output signal of the photodetector or a signal based on the output signal is input and outputs a detection signal.
A first imaging system that captures at least a part of the projection range of the projection system and outputs a first captured image,
A second imaging system that captures at least a part of the light projection range and outputs a second captured image,
At least one region within the projection range is set as a region of interest based on the detection signal, the first captured image, and the second captured image, and the output of the photodetector by projecting light onto the region of interest. a control system signal or a signal based on the output signal to control said at least one light projecting system and the signal processing system to be detected by the signal detection unit, an object detecting device Ru comprising a.
前記制御系は、前記注目領域に対する投光光量が前記投光範囲における前記注目領域以外の領域に対する投光光量よりも大きくなるように前記投光系を制御することを特徴とする請求項1〜3のいずれか一項に記載の物体検出装置。 The control system is characterized in that the light projection system is controlled so that the amount of light projected on the region of interest is larger than the amount of light projected on a region other than the region of interest in the projection range. The object detection device according to any one of 3. 前記制御系は、前記注目領域に対する投光周期が前記投光範囲における前記注目領域以外の領域に対する投光周期よりも短くなるように前記投光系を制御することを特徴とする請求項1〜4のいずれか一項に記載の物体検出装置。 The control system is characterized in that the projection system is controlled so that the projection period for the region of interest is shorter than the projection period for a region other than the region of interest in the projection range. The object detection device according to any one of 4. 前記制御系は、前記投光系を制御して前記注目領域に対して連続して複数回の投光を行い、
前記信号処理系は、前記複数回の投光による前記光検出器の複数の出力信号を平均化及び/又は積算し、得られた信号を前記信号検出部に出力する信号処理部を更に含むことを特徴とする請求項1〜5のいずれか一項に記載の物体検出装置。
The control system controls the light projection system to continuously project light on the region of interest a plurality of times.
The signal processing system further includes a signal processing unit that averages and / or integrates a plurality of output signals of the photodetector due to the plurality of projections and outputs the obtained signal to the signal detection unit. The object detection device according to any one of claims 1 to 5, wherein the object detection device is characterized.
前記信号検出部に信号検出用の閾値が設定され、
前記制御系は、前記投光系から投光されていないときの前記光検出器の出力からノイズレベルを取得し、該ノイズレベルを基準に前記閾値を設定することを特徴とする請求項1〜6のいずれか一項に記載の物体検出装置。
A threshold value for signal detection is set in the signal detection unit, and a threshold value for signal detection is set.
Claims 1 to 1, wherein the control system acquires a noise level from the output of the photodetector when no light is projected from the light projection system, and sets the threshold value based on the noise level. The object detection device according to any one of 6.
前記制御系は、前記投光範囲に物体が存在しないとき、前記投光範囲全域に対する前記投光系の投光条件及び前記信号処理系の処理条件を、前記注目領域に対する前記投光系の投光条件及び前記信号処理系の処理条件と同等にすることを特徴とする1〜7のいずれか一項に記載の物体検出装置。 When an object does not exist in the projection range, the control system applies the projection conditions of the projection system and the processing conditions of the signal processing system to the entire projection range, and the projection of the projection system to the region of interest. The object detection device according to any one of 1 to 7, wherein the light conditions and the processing conditions of the signal processing system are the same. 前記光源は、アレイ状に配置された複数の発光部を含み、
前記制御系は、前記複数の発光部を個別に制御することを特徴とする請求項1〜8のいずれか一項に記載の物体検出装置。
The light source includes a plurality of light emitting units arranged in an array.
The object detection device according to any one of claims 1 to 8, wherein the control system individually controls the plurality of light emitting units.
光検出器は、アレイ状に配置された複数の受光部を含むことを特徴とする請求項1〜8のいずれか一項に記載の物体検出装置。 The object detection device according to any one of claims 1 to 8, wherein the photodetector includes a plurality of light receiving units arranged in an array. 前記投光系は、前記光源からの光を走査する走査手段を更に含み、
前記制御系は、前記光源及び前記走査手段の少なくとも一方を制御することを特徴とする請求項1〜8のいずれか一項に記載の物体検出装置。
The floodlight system further includes scanning means for scanning the light from the light source.
The object detection device according to any one of claims 1 to 8, wherein the control system controls at least one of the light source and the scanning means.
前記制御系は前記第1撮像画像と前記第2撮像画像に基づいて視差画像を生成することを特徴とする請求項1〜11のいずれか一項に記載の物体検出装置。 The object detection device according to any one of claims 1 to 11, wherein the control system generates a parallax image based on the first captured image and the second captured image. 前記第1撮像系が撮像する領域と、前記第2撮像系が撮像する領域は、前記投光範囲を含むことを特徴とする請求項1〜12のいずれか一項に記載の物体検出装置。 The object detection device according to any one of claims 1 to 12 , wherein the region imaged by the first imaging system and the region imaged by the second imaging system include the light projection range. 請求項1〜13のいずれか一項に記載の物体検出装置と、
前記物体検出装置が搭載される移動体と、を備える移動体装置。
The object detection device according to any one of claims 1 to 13.
A mobile device including a mobile body on which the object detection device is mounted.
JP2017010080A 2016-03-16 2017-01-24 Object detection device and mobile device Active JP6942966B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17159434.4A EP3223034B1 (en) 2016-03-16 2017-03-06 Object detection apparatus and moveable apparatus
US15/454,709 US10398006B2 (en) 2016-03-16 2017-03-09 Object detection apparatus and moveable apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016052725 2016-03-16
JP2016052725 2016-03-16

Publications (2)

Publication Number Publication Date
JP2017173298A JP2017173298A (en) 2017-09-28
JP6942966B2 true JP6942966B2 (en) 2021-09-29

Family

ID=59970989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017010080A Active JP6942966B2 (en) 2016-03-16 2017-01-24 Object detection device and mobile device

Country Status (1)

Country Link
JP (1) JP6942966B2 (en)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124177A1 (en) * 2017-12-19 2019-06-27 パイオニア株式会社 Optical scanning device and distance measuring device
JP7238343B2 (en) * 2017-12-22 2023-03-14 株式会社デンソー Distance measuring device and distance measuring method
US11662433B2 (en) * 2017-12-22 2023-05-30 Denso Corporation Distance measuring apparatus, recognizing apparatus, and distance measuring method
JP6927101B2 (en) * 2018-03-13 2021-08-25 オムロン株式会社 Photodetector, photodetector and lidar device
JP2019158693A (en) * 2018-03-15 2019-09-19 株式会社リコー Light reception device, object detection device, distance measurement device, moving body device, noise measurement method, object detection method, and distance measurement method
JPWO2019193642A1 (en) * 2018-04-03 2021-04-30 株式会社自律制御システム研究所 Self-position estimation device and self-position estimation method for unmanned aerial vehicles
JP7141242B2 (en) * 2018-05-18 2022-09-22 株式会社小糸製作所 sensor system
JP6958485B2 (en) * 2018-05-29 2021-11-02 株式会社Soken Object detection device
JP2020003236A (en) 2018-06-25 2020-01-09 株式会社リコー Distance measurement device, moving body, distance measurement method, and distance measurement system
KR20200009757A (en) 2018-07-20 2020-01-30 현대모비스 주식회사 Lidar system and operating method thereof
JP6723317B2 (en) 2018-10-25 2020-07-15 三菱電機株式会社 Laser distance measuring device
JP2020076619A (en) * 2018-11-07 2020-05-21 ソニーセミコンダクタソリューションズ株式会社 Floodlight control system, floodlight control method
KR102352325B1 (en) 2018-11-13 2022-01-14 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 Laser phase tracking method and system for internal reflection subtraction in phase encoding LIDAR
JP2020091224A (en) * 2018-12-06 2020-06-11 マクセル株式会社 Irradiation system and irradiation method
JP7317530B2 (en) 2019-03-14 2023-07-31 株式会社東芝 Distance measuring device, distance measuring method, and signal processing method
JP2020148747A (en) * 2019-03-15 2020-09-17 株式会社リコー Object detection device
JP7255259B2 (en) * 2019-03-19 2023-04-11 株式会社リコー detector, rangefinder, time measurement method, program, moving object
JP2020153796A (en) * 2019-03-19 2020-09-24 株式会社リコー Distance measuring device and method for measuring distance
JP7388064B2 (en) * 2019-03-20 2023-11-29 株式会社リコー Distance measuring device and method
DE102019209691A1 (en) * 2019-07-02 2021-01-07 Ibeo Automotive Systems GmbH Adaptation device and lidar measuring device
JP2021025778A (en) * 2019-07-31 2021-02-22 ソニーセミコンダクタソリューションズ株式会社 Laser driving device, method for adjusting pulse width, and sensing module
JP2021032794A (en) * 2019-08-28 2021-03-01 パイオニア株式会社 Measuring device, control method, program, and storage medium
KR102343294B1 (en) * 2019-10-02 2021-12-24 현대모비스 주식회사 Lidar System and its Control Method
EP4040108A4 (en) 2019-10-01 2022-11-23 Panasonic Intellectual Property Management Co., Ltd. Distance measurement device and control method
US11740333B2 (en) 2019-12-04 2023-08-29 Waymo Llc Pulse energy plan for light detection and ranging (lidar) devices based on areas of interest and thermal budgets
CN114868037A (en) * 2019-12-17 2022-08-05 富士胶片株式会社 Information processing device, imaging device, information processing method, and program
CN113075690B (en) 2020-01-03 2023-04-28 华为技术有限公司 TOF depth sensing module and image generation method
JP7452044B2 (en) * 2020-01-31 2024-03-19 株式会社デンソー light detection device
JP7382858B2 (en) * 2020-03-09 2023-11-17 ソニーセミコンダクタソリューションズ株式会社 Distance sensor
JPWO2021181841A1 (en) 2020-03-11 2021-09-16
DE102020115494B3 (en) * 2020-05-19 2021-04-22 Jenoptik Optical Systems Gmbh Lens, use of a lens, measuring system with a lens and use of a biaspheric plastic lens in a lens
JP7456855B2 (en) * 2020-06-01 2024-03-27 日本信号株式会社 Vehicle location system
JP7452341B2 (en) * 2020-09-11 2024-03-19 株式会社デンソー Cleaning control device, cleaning control method, cleaning control program
WO2022054532A1 (en) * 2020-09-11 2022-03-17 株式会社デンソー Vehicle control device, vehicle control method, and vehicle control program
JP7425702B2 (en) * 2020-09-17 2024-01-31 株式会社東芝 Distance measuring device and distance measuring method
JP2023116280A (en) * 2022-02-09 2023-08-22 株式会社小糸製作所 Projector and measuring apparatus
JP7467562B1 (en) 2022-10-07 2024-04-15 本田技研工業株式会社 External Recognition Device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000028720A (en) * 1998-07-13 2000-01-28 Omron Corp Distance measuring device
JP2006329971A (en) * 2005-04-27 2006-12-07 Sanyo Electric Co Ltd Detector
JP2007139594A (en) * 2005-11-18 2007-06-07 Omron Corp Object detection device
JP4917458B2 (en) * 2007-03-15 2012-04-18 オムロンオートモーティブエレクトロニクス株式会社 Moving object detection device
JP2009192499A (en) * 2008-02-18 2009-08-27 Stanley Electric Co Ltd Apparatus for generating distance image
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
JP2012063236A (en) * 2010-09-16 2012-03-29 Ricoh Co Ltd Laser radar device
JP5978565B2 (en) * 2011-06-30 2016-08-24 富士通株式会社 Monitoring device and monitoring method
JP2013096905A (en) * 2011-11-02 2013-05-20 Denso Corp Distance measuring apparatus

Also Published As

Publication number Publication date
JP2017173298A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6942966B2 (en) Object detection device and mobile device
US10398006B2 (en) Object detection apparatus and moveable apparatus
US20210286076A1 (en) MEMS BEAM STEERING AND FISHEYE RECEIVING LENS FOR LiDAR SYSTEM
JP6387407B2 (en) Perimeter detection system
CN111352091B (en) Real-time gating and signal routing in laser and detector arrays for LIDAR applications
JP2018119986A (en) Optical distance meter without multiple-view scanner under bright circumference background light
JP2018004426A (en) Object detector, sensing device, and mobile body device
KR101785253B1 (en) LIDAR Apparatus
JP2020003236A (en) Distance measurement device, moving body, distance measurement method, and distance measurement system
KR101785254B1 (en) Omnidirectional LIDAR Apparatus
WO2017009848A1 (en) Gated structured imaging
JP2017219502A (en) Object detector, sensing device, and mobile body device
JP6933045B2 (en) Object detection device, sensing device, mobile device and object detection method
CN106324586B (en) Photonic device
JP6874592B2 (en) Time measuring device, distance measuring device, moving object, time measuring method, and distance measuring method
JP2017032552A (en) Pulse light detection device, object detection device, sensing device, mobile device, and pulse light detection method
EP3705913B1 (en) Lidar imaging apparatus for a motor vehicle
US11156716B1 (en) Hybrid LADAR with co-planar scanning and imaging field-of-view
JP7040042B2 (en) Time measuring device, distance measuring device, moving body device, time measuring method and distance measuring method
CN114935743B (en) Emission module, photoelectric detection device and electronic equipment
CN114935742B (en) Emission module, photoelectric detection device and electronic equipment
JP2019109193A (en) Distance measuring device, mobile device and distance measuring
WO2022150129A1 (en) Systems and methods for controlling laser power in light detection and ranging (lidar) systems
JP2019007892A (en) Information acquisition device, program, and information acquisition system
US20230078063A1 (en) Distance measurement device and distance measurement system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191105

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R151 Written notification of patent or utility model registration

Ref document number: 6942966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151