JP2020020612A - Distance measuring device, method for measuring distance, program, and mobile body - Google Patents

Distance measuring device, method for measuring distance, program, and mobile body Download PDF

Info

Publication number
JP2020020612A
JP2020020612A JP2018142993A JP2018142993A JP2020020612A JP 2020020612 A JP2020020612 A JP 2020020612A JP 2018142993 A JP2018142993 A JP 2018142993A JP 2018142993 A JP2018142993 A JP 2018142993A JP 2020020612 A JP2020020612 A JP 2020020612A
Authority
JP
Japan
Prior art keywords
unit
signal
cost
distance
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018142993A
Other languages
Japanese (ja)
Other versions
JP7131180B2 (en
Inventor
和摩 松浦
Kazuma Matsuura
和摩 松浦
横田 聡一郎
Soichiro Yokota
聡一郎 横田
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
潤 岸和田
Jun Kishiwada
潤 岸和田
忠司 仲村
Tadashi Nakamura
忠司 仲村
聖也 天野
Seiya Amano
聖也 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018142993A priority Critical patent/JP7131180B2/en
Publication of JP2020020612A publication Critical patent/JP2020020612A/en
Application granted granted Critical
Publication of JP7131180B2 publication Critical patent/JP7131180B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a distance measuring device which can increase the accuracy of detecting an object when an undershoot is generated in a reflection signal from an object.SOLUTION: The present invention includes: an irradiation unit for emitting a laser beam; a light reception unit for receiving a reflected light as a laser beam reflected by an object; a first processing circuit (a signal amplifier 44b of a processing system 2) for performing undershoot processing on a reflection signal received by the light reception unit; and a filter circuit 44d for performing processing of highlighting a peak showing the object in the reflection signal on which the undershoot processing has been performed.SELECTED DRAWING: Figure 28

Description

本発明は、測距装置、測距方法、プログラム、及び移動体に関する。   The present invention relates to a distance measuring device, a distance measuring method, a program, and a moving object.

ステレオカメラにおいて視差値を画素ごとに計算する視差計算アルゴリズムが知られている。視差計算アルゴリズムは探索視差空間にコストを投票する方式であり、コスト最小を与える視差値を整数視差値dとして得て、整数視差値dからサブピクセル視差を推定後、整数視差値dとサブピクセル視差を視差推定値Dとして得る。そして、距離Zと視差推定値Dの対応式(Z=BF/D)により各画素に対応する距離を計算する(Bは基線長、Fは焦点距離)。   A parallax calculation algorithm for calculating a parallax value for each pixel in a stereo camera is known. The disparity calculation algorithm is a method of voting a cost in a search disparity space, obtaining a disparity value that gives the minimum cost as an integer disparity value d, estimating a sub-pixel disparity from the integer disparity value d, and then calculating the integer disparity value d and the sub-pixel. The disparity is obtained as a disparity estimated value D. Then, a distance corresponding to each pixel is calculated by a corresponding expression (Z = BF / D) between the distance Z and the estimated parallax value D (B is a base line length, and F is a focal length).

このような視差空間コスト投票方式では、整数視差値dが小さい(距離Zが大きい)遠方領域は、距離分解能を確保することが難しく、また視差計算結果のばらつき(分散)が距離の分散に大きな影響を与えるという課題がある。また、ステレオカメラを使用する産業界(例えば車載業界投)では遠方での測距性能を向上させ、ステレオカメラの低コスト化、小型化、及び、環境ロバスト性能の向上を期待されている。   In such a disparity space cost voting method, it is difficult to secure a distance resolution in a distant region where the integer disparity value d is small (the distance Z is large), and the dispersion (dispersion) of the disparity calculation result is large in the dispersion of the distance. There is a problem of affecting. Further, in the industry using stereo cameras (for example, in the vehicle industry), it is expected that the distance measurement performance at a long distance is improved, and that the stereo camera is reduced in cost, miniaturized, and improved in environmental robust performance.

そこで、ステレオカメラの課題を補うために、空間分解能は低いが距離分解能が高いLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)を利用する試みがある。LiDARは、物体にレーザ光を照射して反射信号が戻ってくるまでの時間により物体までの距離を算出する測定方法である。時系列の反射信号から物体の反射信号を特定する方法の一例として反射信号のピークを検出する方法がある。空間分解能は高いが遠方の距離分解能が低いステレオカメラと空間分解能は低いが距離分解能が高いLiDARの測定結果を統合(これをフュージョンと呼ぶ場合がある)することで両者の利点を活かすことができる。   In order to compensate for the problem of the stereo camera, there is an attempt to use LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) having a low spatial resolution but a high distance resolution. LiDAR is a measurement method that calculates the distance to an object by irradiating the object with a laser beam and returning a reflected signal. As an example of a method of specifying a reflection signal of an object from a time-series reflection signal, there is a method of detecting a peak of a reflection signal. By merging the measurement results of a stereo camera with a high spatial resolution but a low distance resolution at a long distance and a LiDAR with a low spatial resolution but a high distance resolution (this may be called fusion), the advantages of both can be utilized. .

このLiDARにおいて測距精度を向上させる技術が知られている(例えば、特許文献1参照。)。特許文献1には、物体からのレーザ光の反射信号に意図的にアンダーシュートを発生させ、物体反射信号の立下りを急峻にすることで、LiDARの測距精度を高める方法が開示されている。   A technology for improving the ranging accuracy in LiDAR is known (for example, see Patent Document 1). Patent Literature 1 discloses a method in which undershoot is intentionally generated in a reflected signal of a laser beam from an object to sharpen the fall of the object reflected signal, thereby improving the ranging accuracy of LiDAR. .

しかしながら、物体からの反射信号にアンダーシュートを発生させるだけでは、反射信号のピークを検出できるとは限らないという問題がある。例えば、反射信号のうちアンダーシュートした反射信号に対し適切な処理を行わないと反射信号のピークを検出できない場合がある。   However, there is a problem that the peak of the reflected signal cannot always be detected simply by generating the undershoot in the reflected signal from the object. For example, the peak of the reflected signal may not be detected unless appropriate processing is performed on the undershooted reflected signal among the reflected signals.

本発明は、上記課題に鑑み、物体からの反射信号にアンダーシュートを発生させた際の物体の検出精度を向上させる測距装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and has as its object to provide a distance measuring device that improves the detection accuracy of an object when an undershoot occurs in a reflected signal from the object.

上記課題に鑑み、本発明は、レーザ光を照射する照射部と、前記レーザ光が物体で反射した反射信号を受光する受光部と、前記受光部が受光した反射信号にアンダーシュート処理を施す第1の処理回路と、前記第1の処理回路によりアンダーシュート処理が施された前記反射信号に、前記物体を表すピークを強調する処理を施すフィルタ回路と、を有することを特徴とする測距装置を提供する。   In view of the above problems, the present invention provides an irradiation unit that irradiates a laser beam, a light receiving unit that receives a reflected signal of the laser light reflected by an object, and a process of performing an undershoot process on the reflected signal received by the light receiving unit. 1. A distance measuring apparatus, comprising: a first processing circuit; and a filter circuit that performs a process of enhancing a peak representing the object on the reflected signal on which the undershoot process has been performed by the first processing circuit. I will provide a.

物体からの反射信号にアンダーシュートを発生させた際の物体の検出精度を向上させる測距装置を提供することができる。   It is possible to provide a distance measuring device that improves the detection accuracy of an object when an undershoot occurs in a reflected signal from the object.

測距装置の外観構成及び取り付け例を説明する図の一例である。It is an example of a figure explaining the appearance composition and example of attachment of a distance measuring device. 測距装置の全体的な構成図の一例を示す図である。FIG. 2 is a diagram illustrating an example of an overall configuration diagram of a distance measuring device. 測距装置のハードウェア構成例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of a distance measuring device. 三角測量により比較画像と基準画像から物体に対する視差値を導き出し、視差値によって測距装置から物体までの距離を測定する原理について説明する図である。FIG. 9 is a diagram illustrating a principle of deriving a parallax value for an object from a comparison image and a reference image by triangulation, and measuring a distance from the ranging device to the object based on the parallax value. 視差値と距離の対応をグラフ形式で示す図である。It is a figure which shows the correspondence of a parallax value and distance in a graph format. ブロックマッチングによる整数視差の算出を説明する図の一例である。FIG. 4 is an example of a diagram illustrating calculation of integer parallax by block matching. 照射されたレーザ光が物体で反射して受光されるまでの時間の測定を模式的に示す図の一例である。It is an example of a figure showing typically measurement of the time until an irradiated laser beam is reflected by an object and received. レーザ信号処理部の機能をブロック状に示す機能ブロック図の一例である。FIG. 3 is an example of a functional block diagram showing the function of a laser signal processing unit in a block shape. ステレオ画像演算部の機能をブロック状に示す機能ブロック図の一例である。FIG. 3 is an example of a functional block diagram illustrating functions of a stereo image calculation unit in a block shape. 近傍と遠方での受信される信号レベルの違いの一例を説明する図である。It is a figure explaining an example of the difference of the signal level received near and far. ステレオ画像演算部の機能を詳細に説明する機能ブロック図の一例である。FIG. 3 is an example of a functional block diagram for explaining the function of a stereo image calculation unit in detail. 第1合成コスト算出部の機能構成の詳細を示す図の一例である。FIG. 4 is an example of a diagram showing details of a functional configuration of a first combined cost calculation unit. 第1経路コストLr(p,d)の算出におけるr方向を示す図である。It is a figure showing r direction in calculation of the 1st course cost Lr (p, d). 範囲決定部による処理範囲の決定方法を説明するための図の一例である。FIG. 9 is an example of a diagram for describing a method of determining a processing range by a range determining unit. 範囲決定部により決定された処理範囲を示す図の一例である。It is an example of a figure showing the processing range decided by the range decision part. 第2コスト算出部の機能構成の詳細を示す図の一例である。It is an example of a figure showing the details of the functional composition of the 2nd cost calculation part. 第2合成コスト算出部の機能構成の詳細を示す図の一例である。FIG. 9 is an example of a diagram showing details of a functional configuration of a second combined cost calculation unit. 基準画素領域における第2合成コストS'の算出結果を示す図の一例である。It is an example of a figure showing the calculation result of the 2nd synthesis cost S 'in a reference pixel area. 遠方が撮像された画像データとこのような遠方の物体からの反射信号の一例を示す図である。FIG. 3 is a diagram illustrating an example of image data of a distant image and a reflection signal from such a distant object. 物体からの反射信号を強調するPD出力検出部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a PD output detection unit that emphasizes a reflection signal from an object. 比較例と本実施形態の受光信号波形の一例を示す図である。FIG. 6 is a diagram illustrating an example of a light reception signal waveform according to a comparative example and the present embodiment. 負帰還回路の一例を示す図である。FIG. 3 is a diagram illustrating an example of a negative feedback circuit. アンダーシュート処理された反射信号の一例を示す図である。FIG. 7 is a diagram illustrating an example of a reflected signal that has been subjected to undershoot processing. レーザ光の反射率が低い物体(黒い幕)からの反射信号を説明する図の一例である。It is an example of a figure explaining the reflection signal from the object (black curtain) with low reflectance of laser light. 物体からの反射信号を強調するPD出力検出部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a PD output detection unit that emphasizes a reflection signal from an object. 隊列被写体の一例を示す図である。It is a figure showing an example of a row subject. アンダーシュート処理された隊列被写体の反射信号の一例を示す図である。FIG. 8 is a diagram illustrating an example of a reflected signal of a row subject subjected to undershoot processing. PD出力検出部の一例の構成図である。FIG. 3 is a configuration diagram of an example of a PD output detection unit. ステレオ画像演算部とレーザ信号処理部による視差画像生成処理の流れを示すフローチャートである。9 is a flowchart illustrating a flow of a parallax image generation process performed by a stereo image calculation unit and a laser signal processing unit. A/D変換回路により変換した反射信号の大域的な解析を説明する図の一例である。FIG. 3 is an example of a diagram illustrating global analysis of a reflected signal converted by an A / D conversion circuit. 距離空間をベースにして視差を算出する方法を説明する図の一例である。FIG. 7 is an example of a diagram illustrating a method of calculating parallax based on a metric space. 距離空間をベースにして視差を簡易的に算出する方法を説明する図の一例である。FIG. 7 is an example of a diagram for explaining a method for simply calculating parallax based on a metric space.

以下、本発明を実施するための形態の一例として、測距装置と測距装置が行う測距方法について図面を参照しながら説明する。   Hereinafter, as an example of an embodiment for carrying out the present invention, a distance measuring device and a distance measuring method performed by the distance measuring device will be described with reference to the drawings.

<用語について>
アンダーシュートとは、何らかの検出対象の検出により検出前より大きくなった信号が検出前の値に戻る際に検出前の値よりも小さくなることをいう。検出前の値がゼロであればアンダーシュートによりマイナスの値になる。反転処理と称される場合もある。
<About terms>
Undershoot means that when a signal that has become larger than before detection due to detection of some detection target returns to a value before detection, the signal becomes smaller than the value before detection. If the value before detection is zero, it becomes a negative value due to undershoot. It may be called inversion processing.

測距装置は、後述するレーザレーダ測距部とステレオカメラ部を有することから測距システムと称してもよい。この他、距離測定装置、測距部などと呼ばれてもよい。   The distance measuring device may be referred to as a distance measuring system because it has a laser radar distance measuring unit and a stereo camera unit to be described later. In addition, it may be called a distance measuring device, a distance measuring unit, or the like.

<測距装置の外観構成及び取り付け例>
まず、図1を用いて、測距装置の外観構成及び取り付け例について説明する。図1は、測距装置の外観構成及び取り付け例を説明する図の一例である。
<Appearance configuration and mounting example of distance measuring device>
First, an external configuration and an example of attachment of the distance measuring device will be described with reference to FIG. FIG. 1 is an example of a diagram for explaining an external configuration and an example of attachment of a distance measuring device.

測距装置100は、ステレオカメラ部110と、レーザレーダ測距部120とを有する。ステレオカメラ部110は、右カメラ(第1の撮像装置)111と左カメラ(第2の撮像装置)112とを備え、レーザレーダ測距部120は、右カメラ112と左カメラ111との間に配置される。レーザレーダ測距部120とステレオカメラ部110との測定結果を統合(フュージョン)することで、周囲環境の3次元情報をより高精度に取得することが可能になる。   The distance measuring apparatus 100 includes a stereo camera unit 110 and a laser radar distance measuring unit 120. The stereo camera unit 110 includes a right camera (first imaging device) 111 and a left camera (second imaging device) 112, and the laser radar ranging unit 120 is provided between the right camera 112 and the left camera 111. Be placed. By integrating (fusion) the measurement results of the laser radar distance measurement unit 120 and the stereo camera unit 110, it becomes possible to acquire three-dimensional information of the surrounding environment with higher accuracy.

右カメラ112と左カメラ111は、所定のフレーム周期で同期を取りそれぞれが撮像を行い、撮像画像を生成する。   The right camera 112 and the left camera 111 synchronize with each other at a predetermined frame period, perform image capturing, and generate a captured image.

レーザレーダ測距部120は、レーザ光を照射しその反射光を受光することで、TOF(Time Of Flight)方式で照射位置(照射方向にある物体)までの距離を測定する。   The laser radar distance measurement unit 120 measures the distance to the irradiation position (object in the irradiation direction) by irradiating the laser beam and receiving the reflected light, using the TOF (Time Of Flight) method.

測距装置100は、例えば、車両140のフロントウィンドウの内側の天井よりの中央部分に取り付けられる。このとき、ステレオカメラ部110及びレーザレーダ測距部120は、いずれも車両140の前方方向に向かって取り付けられる。つまり、車両140において、測距装置100は、ステレオカメラ部110の光軸と、レーザレーダ測距部120のレーザ光の照射方向の中心とが、同じ方向になるように取り付けられる。   The distance measuring apparatus 100 is attached, for example, to a central portion of the vehicle 140 from the ceiling inside the front window. At this time, the stereo camera unit 110 and the laser radar distance measuring unit 120 are both mounted toward the front of the vehicle 140. That is, in the vehicle 140, the distance measuring apparatus 100 is mounted such that the optical axis of the stereo camera unit 110 and the center of the laser beam irradiation direction of the laser radar distance measuring unit 120 are in the same direction.

なお、図1の取り付け位置は一例に過ぎず、車両のダッシュボード、ルーフ、又は、バンパ内などに取り付けられてもよい。また、図1の取り付け位置は車両の前方の3次元情報を取得するためのものであり、車両の右側方、左側方、又は後方の3次元情報を取得できるように取り付けられてもよい。   The mounting position in FIG. 1 is merely an example, and may be mounted on a dashboard, a roof, a bumper, or the like of a vehicle. The attachment position in FIG. 1 is for acquiring three-dimensional information in front of the vehicle, and may be attached so that three-dimensional information on the right side, left side, or back of the vehicle can be acquired.

<測距装置のハードウェア構成>
続いて、図2に基づき測距装置100の全体的な構成例について説明する。図2は、測距装置100の全体的な構成図の一例を示す図である。
<Hardware configuration of distance measuring device>
Subsequently, an overall configuration example of the distance measuring apparatus 100 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of an overall configuration diagram of the distance measuring apparatus 100.

測距装置100は、レーザレーダ測距部120とステレオカメラ部110とが相互に必要な情報を送受信できるように構成される。ステレオカメラ部110は上記のように右カメラと左カメラに加え、基準画像と比較画像を処理して距離画像を出力するステレオカメラ部110を有している。   The ranging device 100 is configured so that the laser radar ranging unit 120 and the stereo camera unit 110 can mutually transmit and receive necessary information. The stereo camera unit 110 has the stereo camera unit 110 that processes the reference image and the comparison image and outputs a distance image in addition to the right camera and the left camera as described above.

レーザレーダ測距部120は後述するようにステレオカメラ部110から処理範囲を取得して、処理範囲で物体を絞り込み、絞り込みで得た照射方向ごとの距離情報をステレオカメラ部110に出力する。ステレオカメラ部110は照射方向ごとの距離情報を使って詳細な距離画像を生成し、ECU190(Electronic Control Unit:電子制御ユニット)に出力する。このように、レーザレーダ測距部120とステレオカメラ部110がフュージョンされることでより高精度な3次元情報の取得が可能になる。   The laser radar ranging unit 120 acquires a processing range from the stereo camera unit 110 as described later, narrows down objects in the processing range, and outputs distance information for each irradiation direction obtained by the narrowing down to the stereo camera unit 110. The stereo camera unit 110 generates a detailed distance image using the distance information for each irradiation direction, and outputs it to the ECU 190 (Electronic Control Unit). As described above, the fusion of the laser radar distance measurement unit 120 and the stereo camera unit 110 enables acquisition of three-dimensional information with higher accuracy.

図2では一例として、距離画像と基準画像がECU190に送出されている。ECU190は車両の電子制御ユニットである。なお、車載された測距装置100を車載装置という。ECU190は、測距装置100が出力する距離画像と基準画像を用いて各種の運転支援を行う。基準画像については種々のパターンマッチングを行い先行車両、歩行者、白線、信号機の状態の認識等を行う。   In FIG. 2, as an example, the distance image and the reference image are transmitted to the ECU 190. The ECU 190 is an electronic control unit of the vehicle. Note that the ranging device 100 mounted on a vehicle is referred to as a vehicle-mounted device. The ECU 190 performs various driving supports using the distance image and the reference image output from the distance measuring device 100. For the reference image, various patterns are matched to recognize the state of the preceding vehicle, pedestrian, white line, traffic light, and the like.

運転支援は車両によって様々であるが、例えば、対象物の横位置が自車両の車幅と重なる場合、距離と相対速度から算出されるTTC(Time To Collision)に応じて警報や制動などを行う。また、衝突までの停止が困難な場合、衝突を回避する方向にステアリングを操舵する。   Driving support varies depending on the vehicle. For example, when the lateral position of the target object overlaps with the width of the own vehicle, a warning or braking is performed according to TTC (Time To Collision) calculated from the distance and the relative speed. . When it is difficult to stop the vehicle until the collision, the steering is steered in a direction to avoid the collision.

また、ECU190は、車速に応じた車間距離で先行車に追従走行する全車速車間距離制御を行う。先行車が停車したら自車両も停車させ、先行車が発進したら自車両も発進する。また、ECU190が白線認識などを行う場合、走行レーンの中央を走行するように操舵するレーンキーピング制御や走行レーンから逸脱するおそれがあると走行方向を走行レーンに向けて変更する逸脱防止制御等を行うことができる。   Further, the ECU 190 performs inter-vehicle distance control at all vehicle speeds following the preceding vehicle at an inter-vehicle distance corresponding to the vehicle speed. When the preceding vehicle stops, the own vehicle also stops, and when the preceding vehicle starts, the own vehicle also starts. Further, when the ECU 190 performs white line recognition or the like, lane keeping control for steering so as to travel in the center of the traveling lane or departure prevention control for changing the traveling direction toward the traveling lane if there is a possibility of departure from the traveling lane. It can be carried out.

また、停車時に進行方向に障害物がある場合、急発進を抑制することができる。例えば、シフトレバーの操作位置により判断される進行方向に障害物があり、かつ、アクセルペダルの操作量が大きい場合、エンジン出力を制限したり警報したりすることで被害を軽減する。   Also, when there is an obstacle in the traveling direction when the vehicle is stopped, sudden start can be suppressed. For example, when there is an obstacle in the traveling direction determined by the operation position of the shift lever and the operation amount of the accelerator pedal is large, the damage is reduced by limiting the engine output or issuing a warning.

図3は、測距装置100のハードウェア構成例を示す図である。測距装置100は、センサステイ201と制御基板収納部202とを有する。センサステイ201には、左カメラ111、右カメラ112及びレーザレーダ測距部120が取り付けられている。左カメラ111と右カメラ112に挟まれるこれらの直線上にレーザレーダ測距部120が配置されることで、測距装置100の小型化及び低コスト化を実現している。左カメラ111と右カメラ112の間隔を基線長というが、基線長が長い方が視差を稼ぎやすい。測距装置100を小型化するには基線長を短くする必要があり、基線長を短くしながら精度を損なわないことが求められる。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the distance measuring apparatus 100. The distance measuring apparatus 100 includes a sensor stay 201 and a control board storage unit 202. A left camera 111, a right camera 112, and a laser radar distance measuring unit 120 are attached to the sensor stay 201. By arranging the laser radar ranging unit 120 on these straight lines sandwiched between the left camera 111 and the right camera 112, the size and cost of the ranging device 100 are reduced. The distance between the left camera 111 and the right camera 112 is referred to as a base length. The longer the base length, the easier it is to obtain parallax. In order to reduce the size of the distance measuring apparatus 100, it is necessary to shorten the base line length, and it is required that the base line length be kept short while maintaining the accuracy.

制御基板収納部202には、レーザ信号処理部240、ステレオ画像演算部250、メモリ260、及び、MPU(Micro Processing Unit)270が収納されている。レーザ信号処理部240をレーザレーダ測距部120とは別体に構成することで、レーザレーダ測距部120のサイズを小さくすることができる。これにより、本実施形態では、左カメラ111と右カメラ112との間への、レーザレーダ測距部120の配置を実現している。   The control board storage unit 202 stores a laser signal processing unit 240, a stereo image calculation unit 250, a memory 260, and an MPU (Micro Processing Unit) 270. By configuring the laser signal processing unit 240 separately from the laser radar distance measuring unit 120, the size of the laser radar distance measuring unit 120 can be reduced. Thus, in the present embodiment, the arrangement of the laser radar distance measurement unit 120 between the left camera 111 and the right camera 112 is realized.

なお、図3の例では、レーザ信号処理部240とステレオ画像演算部250とを、別の回路基板として構成しているが、レーザ信号処理部240とステレオ画像演算部250とは、共通の回路基板により構成してもよい。回路基板の枚数を削減することで、低コスト化を図ることが可能となるからである。   In the example of FIG. 3, the laser signal processing unit 240 and the stereo image calculation unit 250 are configured as separate circuit boards, but the laser signal processing unit 240 and the stereo image calculation unit 250 share a common circuit. It may be constituted by a substrate. This is because the cost can be reduced by reducing the number of circuit boards.

続いて、センサステイ201側の各部について説明する。図3に示すように、左カメラ111は、カメラレンズ211と、撮像素子212と、センサ基板213とを備える。カメラレンズ211を介して入射された外部の光は、撮像素子212に受光され、所定のフレーム周期で光電変換される。光電変換されることで得た信号は、センサ基板213において処理され、1フレームごとの撮像画像が生成される。生成された撮像画像は、比較画像として、順次、ステレオ画像演算部250に送信される。   Subsequently, each unit on the sensor stay 201 side will be described. As shown in FIG. 3, the left camera 111 includes a camera lens 211, an image sensor 212, and a sensor substrate 213. External light incident through the camera lens 211 is received by the image sensor 212 and is photoelectrically converted at a predetermined frame cycle. The signal obtained by the photoelectric conversion is processed in the sensor substrate 213, and a captured image for each frame is generated. The generated captured images are sequentially transmitted to the stereo image calculation unit 250 as comparison images.

なお、右カメラ112も、左カメラ111と同様の構成を有しており、同期制御信号に基づいて左カメラ111と同期して撮像する。撮像画像は、基準画像として、順次、ステレオ画像演算部250に送信される。   Note that the right camera 112 has the same configuration as the left camera 111, and captures an image in synchronization with the left camera 111 based on a synchronization control signal. The captured images are sequentially transmitted to the stereo image calculation unit 250 as reference images.

レーザレーダ測距部120は、光源駆動回路231と、レーザ光源232と、照射レンズ233とを備える。光源駆動回路231は、レーザ信号処理部240からの同期制御信号に基づいて動作し、レーザ光源232に対して変調電流(光源発光信号)を印加する。これにより、レーザ光源232ではレーザ光を照射する。レーザ光源232より照射されたレーザ光は、照射レンズ233を介して外部に照射される。   The laser radar distance measurement unit 120 includes a light source drive circuit 231, a laser light source 232, and an irradiation lens 233. The light source drive circuit 231 operates based on the synchronization control signal from the laser signal processing unit 240, and applies a modulation current (light source emission signal) to the laser light source 232. As a result, the laser light source 232 emits laser light. The laser light emitted from the laser light source 232 is emitted to the outside via the irradiation lens 233.

なお、本実施形態では、レーザ光源232として、赤外半導体レーザダイオード(LD:Laser Diode)が用いられ、レーザ光として波長800nm〜950nmの近赤外光が照射されるものとする。また、レーザ光源232は、光源駆動回路231により印加された変調電流(光源発光信号)に応じて、パルス状の波形を有するレーザ光を周期的に照射するものとする。更に、レーザ光源232は、数ナノ秒から数百ナノ秒程度の短いパルス幅を有するパルス状のレーザ光を周期的に照射するものとする。ただし、レーザ光の波長やパルス幅をこれら限定するものではない。   In this embodiment, an infrared semiconductor laser diode (LD: Laser Diode) is used as the laser light source 232, and near-infrared light having a wavelength of 800 nm to 950 nm is irradiated as laser light. The laser light source 232 periodically emits laser light having a pulse-like waveform according to the modulation current (light source emission signal) applied by the light source drive circuit 231. Further, the laser light source 232 periodically emits pulsed laser light having a short pulse width of about several nanoseconds to several hundred nanoseconds. However, the wavelength and pulse width of the laser light are not limited to these.

レーザ光源232から照射されたパルス状のレーザ光は、照射レンズ233を介して照射ビームとして外部に照射された後、レーザ光の照射方向にある物体に照射される。なお、レーザ光源232から照射されるレーザ光は、照射レンズ233によって略平行光にコリメートされているため、照射された物体(オブジェクト)における照射範囲は、予め設定された微小面積に抑えられる。   The pulsed laser light emitted from the laser light source 232 is emitted to the outside as an irradiation beam via the irradiation lens 233, and then is applied to an object in the irradiation direction of the laser light. Since the laser light emitted from the laser light source 232 is collimated into substantially parallel light by the irradiation lens 233, the irradiation range of the irradiated object is suppressed to a predetermined small area.

レーザレーダ測距部120は、更に、受光レンズ234と、受光素子235と、受光信号増幅回路236とを備える。照射方向の物体に照射されたレーザ光は、一様な方向に散乱する。そして、レーザレーダ測距部120から照射されたレーザ光と同じ光路をたどって反射してくる光成分のみが、反射光として受光レンズ234を介して受光素子235に導かれる。   The laser radar ranging unit 120 further includes a light receiving lens 234, a light receiving element 235, and a light receiving signal amplifying circuit 236. Laser light applied to an object in the irradiation direction is scattered in a uniform direction. Then, only the light component reflected along the same optical path as the laser light emitted from the laser radar distance measuring unit 120 is guided to the light receiving element 235 via the light receiving lens 234 as reflected light.

本実施形態では、受光素子235として、シリコンPINフォトダイオードやアバランシェフォトダイオードが用いられる。受光素子235は、反射光を光電変換することで反射信号を生成し、受光信号増幅回路236は、生成された反射信号を増幅した後、レーザ信号処理部240に送信する。   In the present embodiment, a silicon PIN photodiode or an avalanche photodiode is used as the light receiving element 235. The light receiving element 235 generates a reflection signal by photoelectrically converting the reflected light, and the light reception signal amplifying circuit 236 amplifies the generated reflection signal and transmits the amplified signal to the laser signal processing unit 240.

続いて、制御基板収納部202側の各部について説明する。レーザ信号処理部240は、レーザレーダ測距部120より送信された反射信号に基づいて、照射方向の物体までの距離を算出し、算出した距離情報をステレオ画像演算部250に送信する。   Subsequently, each unit on the control board storage unit 202 side will be described. The laser signal processing unit 240 calculates the distance to the object in the irradiation direction based on the reflection signal transmitted from the laser radar distance measurement unit 120, and transmits the calculated distance information to the stereo image calculation unit 250.

ステレオ画像演算部250は、例えば、FPGA(Field−Programmable gate array)や、ASIC(Application Specific Integrated Circuit)等の専用の集積回路により構成される。ステレオ画像演算部250は、左カメラ111、右カメラ112及びレーザ信号処理部240に対して、撮像タイミング及びレーザ光の投受光タイミングを制御するための同期制御信号を出力する。   The stereo image calculation unit 250 is configured by a dedicated integrated circuit such as a field-programmable gate array (FPGA) or an application specific integrated circuit (ASIC). The stereo image calculation unit 250 outputs a synchronization control signal to the left camera 111, the right camera 112, and the laser signal processing unit 240 for controlling the imaging timing and the timing of emitting and receiving laser light.

また、ステレオ画像演算部250は、左カメラ111より送信された比較画像、右カメラ112より送信された基準画像、レーザ信号処理部240より送信された距離情報に基づいて、視差画像を生成する。ステレオ画像演算部250は、生成した視差画像をメモリ260に格納する。   Further, the stereo image calculation unit 250 generates a parallax image based on the comparison image transmitted from the left camera 111, the reference image transmitted from the right camera 112, and the distance information transmitted from the laser signal processing unit 240. The stereo image calculation unit 250 stores the generated parallax image in the memory 260.

メモリ260は、ステレオ画像演算部250にて生成された視差画像を格納する。また、メモリ260は、ステレオ画像演算部250及びMPU270が各種処理を実行する際のワークエリアを提供する。   The memory 260 stores the parallax image generated by the stereo image calculation unit 250. Further, the memory 260 provides a work area when the stereo image calculation unit 250 and the MPU 270 execute various processes.

MPU270は、制御基板収納部202に収納された各部を制御すると共に、メモリ260に格納された視差画像を解析する解析処理を行う。   The MPU 270 controls each unit stored in the control board storage unit 202 and performs an analysis process for analyzing a parallax image stored in the memory 260.

<ステレオカメラによる測距原理>
図4を用いて、ステレオカメラによる測距原理について説明する。図4は、三角測量により比較画像と基準画像から物体に対する視差値を導き出し、視差値によって測距装置100から物体までの距離を測定する原理について説明する図である。
<Ranging principle with stereo camera>
The principle of ranging by a stereo camera will be described with reference to FIG. FIG. 4 is a diagram illustrating the principle of deriving a parallax value for an object from a comparison image and a reference image by triangulation, and measuring the distance from the ranging device 100 to the object based on the parallax value.

まず、右カメラ112,左カメラ111が平行等位に設置されているものとする。3次元空間内の物体E上のS点は、右カメラ112,左カメラ111の同一水平線上の位置に写像される。すなわち、各画像中のS点は、比較画像Ia中の点Sa(x,y)及び基準画像Ib中の点Sb(x',y)において撮像される。このとき、視差値dは、Sa(x,y)とSb(x',y)とを用いて、式(1)のように表される。
d=x'−x 式(1)
図4に示すように、比較画像Ia中の点Sa(x,y)と右カメラ112から撮像面上におろした垂線の交点との距離をΔaにし、基準画像Ib中の点Sb(x',y)と左カメラ111から撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。
First, it is assumed that the right camera 112 and the left camera 111 are installed in parallel equivalence. The S point on the object E in the three-dimensional space is mapped to a position on the same horizontal line of the right camera 112 and the left camera 111. That is, the S point in each image is captured at a point Sa (x, y) in the comparison image Ia and a point Sb (x ', y) in the reference image Ib. At this time, the parallax value d is expressed by Expression (1) using Sa (x, y) and Sb (x ', y).
d = x′−x Equation (1)
As shown in FIG. 4, the distance between the point Sa (x, y) in the comparison image Ia and the intersection of the perpendicular drawn from the right camera 112 onto the imaging surface is set to Δa, and the point Sb (x ′) in the reference image Ib is set. , Y) and the intersection point of the perpendicular drawn from the left camera 111 onto the imaging plane is represented by Δb, the disparity value Δ = Δa + Δb.

また、視差値Δを用いることで、右カメラ112、左カメラ111と物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、カメラレンズ211の焦点位置とカメラレンズ221の焦点位置とを含む面から物体E上の特定点Sまでの距離である。カメラレンズ211及びカメラレンズ221の焦点距離f、カメラレンズ211及びカメラレンズ221の間の長さである基線長B、及び視差値dを用いて、式(2)により、距離Zを算出することができる。
Z=(B×f)/d 式(2)
この式(2)により、視差値dが大きいほど距離Zは小さく、視差値dが小さいほど距離Zは大きくなる。式(2)から明らかなように、カメラが小さくなるほど(基線長Bが小さくなるほど)、1整数視差に対応する距離が大きくなる。
Further, the distance Z between the right camera 112 and the left camera 111 and the object E can be derived by using the parallax value Δ. Specifically, the distance Z is a distance from a plane including the focal position of the camera lens 211 and the focal position of the camera lens 221 to the specific point S on the object E. Using the focal length f of the camera lens 211 and the camera lens 221, the base line length B that is the length between the camera lens 211 and the camera lens 221, and the parallax value d, the distance Z is calculated by Expression (2). Can be.
Z = (B × f) / d Equation (2)
According to the equation (2), the distance Z is smaller as the parallax value d is larger, and the distance Z is larger as the parallax value d is smaller. As is clear from equation (2), the smaller the camera (the smaller the base line length B), the greater the distance corresponding to one integer parallax.

図5は、視差値と距離の対応をグラフ形式で示す図である。図5では、基線長B=80mm、焦点距離f=5mm、撮像素子212、222のセルサイズ(画素ピッチ)=3umとした。図5から明らかなように、視差値dが小さくなると1整数視差の変化で距離が急激に大きくなる。このことは、遠方になるほど(視差値dが小さくなるほど)距離分解が急激に悪化することを意味する。   FIG. 5 is a diagram illustrating the correspondence between the disparity value and the distance in a graph format. In FIG. 5, the base length B = 80 mm, the focal length f = 5 mm, and the cell size (pixel pitch) of the imaging elements 212 and 222 is 3 μm. As is clear from FIG. 5, when the parallax value d decreases, the distance sharply increases due to a change of one integer parallax. This means that the distance resolution is rapidly deteriorated as the distance increases (as the parallax value d decreases).

<<ブロックマッチングによる整数視差の演算>>
続いて、図6を用いて視差値の算出方法を説明する。図6はブロックマッチングによる整数視差の算出を説明する図の一例である。図6は、右カメラ112により撮像された比較画像Iaと左カメラ111により撮像された基準画像Ibにおける、注目している画素p=(Px3,Py5)のコストとして、SAD(Sum of Absolute Difference)を算出する例を示した図である。
<< Integer disparity calculation by block matching >>
Next, a method of calculating a parallax value will be described with reference to FIG. FIG. 6 is an example of a diagram illustrating calculation of integer parallax by block matching. FIG. 6 shows the SAD (Sum of Absolute Difference) as the cost of the pixel of interest p = (Px3, Py5) in the comparison image Ia captured by the right camera 112 and the reference image Ib captured by the left camera 111. FIG. 5 is a diagram showing an example of calculating the value.

基準画像Ibと比較画像Iaは撮像位置が異なるため、撮像画像上の同じ位置の注目している画素p=(Px3,Py5)であっても、同じ物体を指し示すことはなく、左右方向にずれた位置を指し示すことになる。このため、ブロックサイズを1×1画素とし、基準画像Ib上の注目している画素p=(Px3,Py5)の輝度値と、比較画像Ia上の注目している画素p=(Px3,Py5)の輝度値との差分値は、大きな値となる。   Since the reference image Ib and the comparison image Ia have different imaging positions, even if the target pixel p = (Px3, Py5) at the same position on the captured image, the reference image Ib does not indicate the same object and is shifted left and right. Point. Therefore, the block size is set to 1 × 1 pixel, and the luminance value of the focused pixel p = (Px3, Py5) on the reference image Ib and the focused pixel p = (Px3, Py5) on the comparison image Ia The difference value from the luminance value of ()) is a large value.

次に、比較画像Ia上の注目している画素pを1画素分、右方向にシフトさせる。つまり、視差d=1としたときのSADを算出する。具体的には、比較画像Ia上の注目している画素p=(Px3+1,Py5)の輝度値と、基準画像Ib上の注目している画素p=(Px3,Py5)の輝度値との差分値を算出する。   Next, the pixel of interest p on the comparison image Ia is shifted rightward by one pixel. That is, the SAD when the parallax d = 1 is calculated. Specifically, the difference between the luminance value of the pixel of interest p = (Px3 + 1, Py5) on the comparison image Ia and the luminance value of the pixel of interest p = (Px3, Py5) on the reference image Ib. Calculate the value.

以下、同様に、d=2、3、・・・と変化させていき、それぞれにおいてSADを算出する。図6の例では、d=3の場合に、基準画像Ibの注目している画素p=(Px3,Py5)が指し示す物体と比較画像Iaの注目している画素p=(Px3+3,Py5)が指し示す物体とが同じとなるものとする。このため、d=3とした場合のSADは、d=3とした場合以外のSADと比べて小さくなる。算出されたSADはコストと呼ばれ、ある決まった探索幅(例えば64画素)においてd=1,2、3、・・・と変化させたコストのうち最小のコストを示す視差が求める視差値(整数視差)となる。この後、パラボラフィッティングや高次多項式などにより小数視差が求められる。   Hereinafter, similarly, d = 2, 3,..., And the SAD is calculated for each. In the example of FIG. 6, when d = 3, the object pointed to by the target pixel p = (Px3, Py5) of the reference image Ib and the target pixel p = (Px3 + 3, Py5) of the comparative image Ia are obtained. It is assumed that the object to be pointed is the same. Therefore, the SAD when d = 3 is smaller than the SAD when d = 3. The calculated SAD is called a cost, and in a certain search width (for example, 64 pixels), a parallax value (a parallax value obtained by a parallax indicating a minimum cost among costs changed as d = 1, 2, 3,...) (Integer parallax). Thereafter, decimal parallax is obtained by parabolic fitting, higher-order polynomial, or the like.

<レーザ信号処理部による時間計測>
次に、図7を用いてレーザ信号処理部240による時間計測の原理を説明する。図7は照射されたレーザ光が物体で反射して受光されるまでの時間tの測定を模式的に示す図である。図7(A)はアナログ信号を模式的に示し、図7(B)はデジタル信号を模式的に示す。図7(A)に示すように、ある時刻にパルス状のレーザ光が照射され、時間tだけ後にパルス状の反射光が受光される。したがって、時刻tに空気中の光の速度を乗じることで照射方向の物体までの距離を算出することができる。
<Time measurement by laser signal processing unit>
Next, the principle of time measurement by the laser signal processing unit 240 will be described with reference to FIG. FIG. 7 is a diagram schematically showing the measurement of the time t until the irradiated laser light is reflected by the object and received. FIG. 7A schematically shows an analog signal, and FIG. 7B schematically shows a digital signal. As shown in FIG. 7A, a pulsed laser beam is emitted at a certain time, and a pulsed reflected light is received after a time t. Therefore, the distance to the object in the irradiation direction can be calculated by multiplying the time t by the speed of the light in the air.

図7(B)は同様の原理を2値化された照射光と反射光で示している。レーザレーダ測距部120は反射光以外のノイズを受光するため、図7(A)のように反射光のみが明確に得られることは少ない。そこで、レーザレーダ測距部120が受光する信号と閾値とを比較し、閾値を超えた信号を反射信号として検出する処理を行うことが一般的である。レーザ信号処理部240は閾値により受光する信号を2値化するので、図7(B)に示すように0又は1の信号が得られる。   FIG. 7B illustrates the same principle with binarized irradiation light and reflected light. Since the laser radar ranging unit 120 receives noise other than reflected light, it is rare that only reflected light is clearly obtained as shown in FIG. Therefore, it is common to perform a process of comparing a signal received by the laser radar distance measurement unit 120 with a threshold value and detecting a signal exceeding the threshold value as a reflection signal. Since the laser signal processing section 240 binarizes the signal received based on the threshold value, a signal of 0 or 1 is obtained as shown in FIG.

<レーザ信号処理部の構成例>
次に、図8を用いてレーザレーダ測距部120とレーザ信号処理部240の構成例を説明する。図8はレーザレーダ測距部120とレーザ信号処理部240の機能をブロック状に示す機能ブロック図の一例である。
<Configuration example of laser signal processing unit>
Next, a configuration example of the laser radar distance measurement unit 120 and the laser signal processing unit 240 will be described with reference to FIG. FIG. 8 is an example of a functional block diagram showing the functions of the laser radar distance measuring section 120 and the laser signal processing section 240 in a block shape.

測距装置100は、一例として、移動体である車両に搭載され、レーザ光を照射し、物体(例えば先行車両、停車車両、障害物、歩行者等)で反射(散乱)された光を受光して該物体の有無や、該物体までの距離等の物体に関する情報(以下では「物体情報」という場合がある)を検出する。レーザ信号処理部は、例えば車両のバッテリ(蓄電池)から電力の供給を受ける。   As an example, the distance measuring apparatus 100 is mounted on a vehicle that is a moving body, irradiates a laser beam, and receives light reflected (scattered) by an object (for example, a preceding vehicle, a stopped vehicle, an obstacle, a pedestrian, and the like). Then, information about the object such as the presence or absence of the object and the distance to the object (hereinafter, may be referred to as “object information”) is detected. The laser signal processing unit receives power supply from, for example, a battery (storage battery) of the vehicle.

レーザレーダ測距部120とレーザ信号処理部240は、照射系10、受光光学系30、検出系40、時間計測部45、同期系50、測定制御部46などを備えている。照射系10は、光源としてのLD(レーザダイオード)、LD駆動部12、照射光学系20を含む。本実施例では、光源としてLD11を用いているが、これに限られない。例えば、VCSEL(面発光レーザ)、有機EL素子、LED(発光ダイオード)等の他の発光素子を用いてもよい。   The laser radar ranging unit 120 and the laser signal processing unit 240 include the irradiation system 10, the light receiving optical system 30, the detection system 40, the time measurement unit 45, the synchronization system 50, the measurement control unit 46, and the like. The irradiation system 10 includes an LD (laser diode) as a light source, an LD driving unit 12, and an irradiation optical system 20. In the present embodiment, the LD 11 is used as the light source, but is not limited to this. For example, another light emitting element such as a VCSEL (surface emitting laser), an organic EL element, and an LED (light emitting diode) may be used.

LD11はレーザ光源232に対応し、LD駆動部12により駆動され、周期的にパルス状のレーザ光を照射する。LD駆動部12は、測定制御部46から出力されるLD駆動信号(矩形パルス信号)を用いてLD11を点灯(発光)させる。LD駆動部12は、一例として、LD11に電流を供給可能に接続されたコンデンサ、該コンデンサとLD11との間の導通/非導通を切り替えるためのトランジスタ、該コンデンサを充電可能な充電手段等を含む。   The LD 11 corresponds to the laser light source 232, is driven by the LD driving unit 12, and periodically emits a pulsed laser beam. The LD driving unit 12 turns on (emits) the LD 11 using the LD driving signal (rectangular pulse signal) output from the measurement control unit 46. The LD drive unit 12 includes, for example, a capacitor connected to be able to supply a current to the LD 11, a transistor for switching conduction / non-conduction between the capacitor and the LD 11, a charging unit capable of charging the capacitor, and the like. .

本実施例では例えば、反射ミラーを回転させて光ビームを走査する。同期系50は、この操作方法を利用して、LD11からの光ビームを、ある所定の角度のときの反射ミラーで反射した光ビームの光路上に配置された同期検知用PD54と、該同期検知用PD54の出力電流(光電流)に基づく電圧信号(受光信号)を検出するPD出力検出部56と、を含む。同期検知用PDの信号によって、反射ミラーの角度を検出でき、システムの走査方向の同期を取ることができる。つまり、同期信号が得られた時の反射ミラーの角度を基準に各レーザ光の照射方向を決定している。   In the present embodiment, for example, the light beam is scanned by rotating the reflection mirror. Using this operation method, the synchronization system 50 uses the synchronization detection PD 54 disposed on the optical path of the light beam reflected by the reflection mirror at a certain angle, and the synchronization detection PD 54. And a PD output detector 56 for detecting a voltage signal (light receiving signal) based on the output current (photocurrent) of the PD 54 for use. The angle of the reflection mirror can be detected by the signal of the PD for synchronization detection, and the scanning direction of the system can be synchronized. That is, the irradiation direction of each laser beam is determined based on the angle of the reflection mirror when the synchronization signal is obtained.

検出系40は、照射レンズ233に相当する照射光学系20から照射され、物体で反射及び散乱された光を、受光レンズ234に相当する受光光学系30を介して受光する時間計測用PD42(フォトダイオード)と、該時間計測用PD42の出力電流(光電流)に基づく電圧信号(受光信号)を検出するPD出力検出部44と、を含む。受光素子としては、PD(photodiode)やAPD(avalanche photodiode)、ガイガーモードAPDであるSPAD(single photon avalanche diode)などを用いても良い。   The detection system 40 receives the light emitted from the irradiation optical system 20 corresponding to the irradiation lens 233 and reflected and scattered by the object via the light receiving optical system 30 corresponding to the light receiving lens 234, and receives the time measurement PD 42 (photo). Diode) and a PD output detection unit 44 that detects a voltage signal (light receiving signal) based on the output current (photocurrent) of the time measuring PD 42. As the light receiving element, a photo diode (PD), an avalanche photo diode (APD), a single photon avalanche diode (SPAD) that is a Geiger mode APD, or the like may be used.

時間計測用PD42は、受光素子駆動部により駆動される。時間計測用PD42は受光素子235に相当する。   The time measuring PD 42 is driven by the light receiving element driving unit. The time measuring PD 42 corresponds to the light receiving element 235.

PD出力検出部44、時間計測部45及び測定制御部46はレーザ信号処理部240に相当する。PD出力検出部44は、時間計測用PD42からのアナログ信号(出力電圧)を、必要に応じて増幅し、閾値電圧を基準に二値化し、その二値化信号(デジタル信号)を時間計測部45に出力する。なお、二値化とは反射信号を閾値と比較して1又は0の信号に変換することをいう。PD出力検出部44は本実施形態の特徴的な構成を有するものであり、後に詳細に説明される。   The PD output detection unit 44, the time measurement unit 45, and the measurement control unit 46 correspond to the laser signal processing unit 240. The PD output detection unit 44 amplifies the analog signal (output voltage) from the time measurement PD 42 as needed, binarizes the analog signal (output voltage) based on a threshold voltage, and converts the binarized signal (digital signal) into a time measurement unit. 45. Note that binarization refers to converting a reflected signal into a signal of 1 or 0 by comparing it with a threshold. The PD output detector 44 has a characteristic configuration of the present embodiment, and will be described later in detail.

時間計測部45は、該二値化信号から、該受光タイミングとLD駆動信号の立ち上がりタイミングに基づいて該物体までの往復時間を計測し、時間計測結果として測定制御部46に出力する。すなわち、時間計測部45はレーザ光を照射してから反射信号のピークを検出するまでの時間を物体までの距離情報に変換する。   The time measuring unit 45 measures the reciprocating time to the object from the binarized signal based on the light receiving timing and the rising timing of the LD drive signal, and outputs the time to the measurement control unit 46 as a time measurement result. That is, the time measuring unit 45 converts the time from the irradiation of the laser beam to the detection of the peak of the reflected signal into distance information to the object.

測定制御部46は、車載装置からの測定制御信号(測定開始信号や測定停止信号)を受けて測定開始や測定停止を行う。同期信号に基づいてLD駆動信号を生成し、LD駆動部12及び時間計測部45に出力する。また、時間計測部45からの時間計測結果を距離に変換することで物体までの往復距離を算出し、該往復距離の1/2を物体までの距離情報としてステレオ画像演算部250に出力する。   The measurement control unit 46 starts measurement or stops measurement in response to a measurement control signal (measurement start signal or measurement stop signal) from the vehicle-mounted device. An LD drive signal is generated based on the synchronization signal and output to the LD drive unit 12 and the time measurement unit 45. In addition, the reciprocating distance to the object is calculated by converting the time measurement result from the time measuring unit 45 into a distance, and の of the reciprocating distance is output to the stereo image calculating unit 250 as distance information to the object.

<ステレオ画像演算部の機能について>
図9は、ステレオ画像演算部250の機能をブロック状に示す機能ブロック図の一例である。図9に示すように、ステレオ画像演算部250は、歪み補正部13、及び、距離演算部14を有する。右カメラ112及び左カメラ111によりステレオカメラが形成されている。なお、本実施形態において、右カメラ112により撮像される撮像画像を基準画像として用い、左カメラ111により撮像される撮像画像を比較画像として用いる。
<About the function of the stereo image calculation unit>
FIG. 9 is an example of a functional block diagram showing the functions of the stereo image calculation unit 250 in a block shape. As shown in FIG. 9, the stereo image calculation unit 250 includes a distortion correction unit 13 and a distance calculation unit 14. The right camera 112 and the left camera 111 form a stereo camera. In the present embodiment, a captured image captured by the right camera 112 is used as a reference image, and a captured image captured by the left camera 111 is used as a comparison image.

歪み補正部13、及び、距離演算部14は専用の電子回路を用いて実現してもよいし、各部を実現するためのプログラムがCPU(コンピュータ)によって実行されることで実現されてもよい。したがって、ステレオ画像演算部250は情報処理装置の機能を有する。また、画像を処理するという点から画像処理装置でもある。   The distortion correction unit 13 and the distance calculation unit 14 may be realized using a dedicated electronic circuit, or may be realized by executing a program for realizing each unit by a CPU (computer). Therefore, stereo image calculation section 250 has the function of an information processing device. It is also an image processing device in that it processes images.

歪み補正部13は、基準画像と比較画像に一般的な歪み補正を行う。この画像補正により、基準画像と比較画像は視差以外の差異が生じないように補正される。画像補正は事前のキャリブレーションにより可能になる。左カメラ111と右カメラ112は設置される際に、例えば、校正用の被写体(例えば市松模様のチャート)を撮像する。2つの画像を比較して、カメラのレンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等のハード的な内部誤差要因が最小になるように画像データを変換する幾何変換用のLUT(Look Up Table)が生成されている。歪み補正部13はこのようなLUTを参照して画像補正を行う。   The distortion correction unit 13 performs general distortion correction on the reference image and the comparison image. By this image correction, the reference image and the comparative image are corrected so that no difference other than parallax occurs. Image correction is enabled by prior calibration. When the left camera 111 and the right camera 112 are installed, they capture, for example, a subject for calibration (for example, a checkered chart). A geometric conversion LUT (Look) for comparing two images and converting image data so as to minimize hardware internal error factors such as camera lens distortion, optical axis deviation, focal length deviation, and image sensor distortion. Up Table) has been generated. The distortion correction unit 13 performs image correction with reference to such an LUT.

距離演算部14は基準画像と比較画像にブロックマッチングやSGM伝播方式などのアルゴリズムを適用して視差を算出する。また、詳細は後述するが距離演算部14は、距離画像を出力する際に、レーザレーダ測距部120が出力する距離情報から算出した画素ごとのコストとステレオマッチングコストとを重み付けして最終的なコストを算出する。   The distance calculation unit 14 calculates parallax by applying an algorithm such as block matching or the SGM propagation method to the reference image and the comparison image. Further, although the details will be described later, when outputting the distance image, the distance calculation unit 14 weights the cost for each pixel calculated from the distance information output by the laser radar distance measurement unit 120 and the stereo matching cost to make the final calculation. Cost is calculated.

なお、図9の構成は一例にすぎず、レーザ信号処理部240とステレオ画像演算部250が一体に構成されていてもよい。また、ECU190がステレオ画像演算部250の機能を有していてもよい。   Note that the configuration in FIG. 9 is merely an example, and the laser signal processing unit 240 and the stereo image calculation unit 250 may be integrally configured. Also, the ECU 190 may have the function of the stereo image calculation unit 250.

<TOF方式の測距方法の課題>
レーザ信号処理部240が行うTOF方式の測距方法では、式(3)のような形で信号が受信される。レーザを照射したときから、この反射光を受光した時点までの時間によって、距離が計測できる。式(3)をみると分かるように、時間計測用PD42が受信する信号Prの強さは、距離の2乗で小さくなる。たとえば、ターゲットの反射率Rtgtや、Ssndなどが同じ物体であるとし、距離Lが2倍になったとき(たとえば10〔m〕の場合と20〔m〕の場合)では、信号レベルは1/4になってしまう。
<Problems of TOF method ranging method>
In the distance measurement method of the TOF method performed by the laser signal processing unit 240, a signal is received in a form as shown in Expression (3). The distance can be measured from the time from when the laser is irradiated to the time when the reflected light is received. As can be seen from Expression (3), the intensity of the signal Pr received by the time measurement PD 42 decreases with the square of the distance. For example, assume that the targets have the same reflectance Rtgt, Ssnd, and the like, and when the distance L is doubled (for example, 10 [m] and 20 [m]), the signal level becomes 1 / It will be 4.

一方、距離レンジをかせぐためには、Poを強化する、TFGを向上させる、又は、Srcvを大きくするなどの対策がとられるが、Poを強化した場合、近距離部で信号が強すぎてサチュレーションを起こし、ピークがわからなくなって誤差が発生する可能性があるし、コストもかかる。Srcvを大きくするとモジュールが大きくなる、TFGを向上するにも劇的な向上は見込めない、などの不都合がある。   On the other hand, in order to gain the distance range, measures such as strengthening Po, improving TFG, or increasing the SRcv are taken.However, when Po is strengthened, the signal is too strong in the short distance part and saturation occurs. It may cause errors, errors may occur due to missing peaks, and costs may increase. Increasing the size of Srcv increases the size of the module, and the dramatic improvement in TFG is not expected.

L: 検出距離
SRcv: レシーバ光学系の面積
η: APD面に集光される光のうちAPDに入力される割合
SSnd: ターゲット上での照射ビーム面積
RTgt: ターゲット反射率
PO: 光源出力
TFG: 光利用効率
図10は、近傍と遠方での受信される信号レベルの違いの一例を説明する図である。図10(a)は、近傍の物体からの反射信号を示す。反射信号は信号Prのうちピークを示す部分であり、それ以外はノイズである。図10(a)に示すように、近傍の物体の信号レベルは強くノイズと区別して検出可能である。反射信号を検出した時点までの時間によって距離が算出される。信号Prからどのようにして反射信号を決定するかについては、種々の方法がある。たとえば、最大ピーク位置を検出する、又は、閾値以上の位置を複数検出する(マルチ検出)などの方法がある。
L: Detection distance
S Rcv : Area of receiver optical system η: Ratio of light that is focused on APD surface and input to APD
S Snd : Irradiation beam area on target
R Tgt : Target reflectance
P O : Light source output
T FG : Light Efficiency FIG. 10 is a diagram illustrating an example of the difference between the signal levels received near and far. FIG. 10A shows a reflection signal from a nearby object. The reflected signal is a portion of the signal Pr that shows a peak, and the rest is noise. As shown in FIG. 10A, the signal level of a nearby object can be strongly distinguished from noise and detected. The distance is calculated based on the time until the reflection signal is detected. There are various methods for determining the reflection signal from the signal Pr. For example, there is a method of detecting the maximum peak position or detecting a plurality of positions equal to or more than a threshold (multiple detection).

図10(b)は遠方の物体からの反射信号を示す。遠方の物体は信号レベルが弱く、反射信号がノイズの強さとほとんど変わらない状況では、最大ピーク位置を検出する方法、又は、閾値以上の信号レベルを検出する方法のいずれの手法を使っても、反射信号の検出が難しい。   FIG. 10B shows a reflected signal from a distant object. In the situation where the signal level of the distant object is weak and the reflected signal is almost the same as the noise intensity, either the method of detecting the maximum peak position or the method of detecting the signal level above the threshold, Difficult to detect reflected signals.

一般的には、近い距離から順に閾値以上の信号Prを反射信号としたり、ピーク位置を検出したりする方法が用いられる。しかし、図10(b)の例では、実質的な反射信号の強さは、その前に検出されているノイズと同様のレベルであり、全体的に見て反射信号を検出することは困難である。レーザレーダ測距部120は原理的にこの様な課題を抱えている。そこで、ステレオ画像演算部250は処理範囲を算出して、レーザレーダ測距部120が遠方の物体からの反射信号を検出することを可能にする。   In general, a method is used in which a signal Pr having a threshold or more is used as a reflection signal in order from a short distance, or a peak position is detected. However, in the example of FIG. 10B, the intensity of the substantial reflected signal is at the same level as the noise detected before that, and it is difficult to detect the reflected signal as a whole. is there. The laser radar distance measuring section 120 has such a problem in principle. Therefore, the stereo image calculation unit 250 calculates the processing range, and enables the laser radar distance measurement unit 120 to detect a reflected signal from a distant object.

<ステレオ画像演算部の機能>
図11は、ステレオ画像演算部250の機能を詳細に説明する機能ブロック図の一例である。なお、図11では、ステレオ画像演算部250の機能構成のうち、視差演算に関する処理を実現するための機能構成についてのみ示し、その他の機能構成(例えば、同期制御信号を送信するための機能等)については省略してある。
<Function of stereo image calculation unit>
FIG. 11 is an example of a functional block diagram illustrating the function of the stereo image calculation unit 250 in detail. Note that FIG. 11 shows only a functional configuration for realizing processing related to parallax calculation, among functional configurations of the stereo image calculation unit 250, and other functional configurations (for example, a function for transmitting a synchronization control signal and the like). Has been omitted.

ステレオ画像演算部250は、処理範囲算出部710と視差画像生成部720とを有する。処理範囲算出部710は、更に、第1コスト算出部711、第1合成コスト算出部712、第1視差演算部713、範囲決定部714を有する。   The stereo image calculation unit 250 includes a processing range calculation unit 710 and a parallax image generation unit 720. The processing range calculation unit 710 further includes a first cost calculation unit 711, a first combined cost calculation unit 712, a first parallax calculation unit 713, and a range determination unit 714.

また、視差画像生成部720は、更に、第2コスト算出部721、第2合成コスト算出部722、第2視差演算部723を有する。以下、処理範囲算出部710及び視差画像生成部720の各部の詳細について説明する。   In addition, the parallax image generation unit 720 further includes a second cost calculation unit 721, a second combined cost calculation unit 722, and a second parallax calculation unit 723. Hereinafter, details of each unit of the processing range calculation unit 710 and the parallax image generation unit 720 will be described.

<<処理範囲算出部の各部の詳細>>
はじめに、処理範囲算出部710の各部の詳細について説明する。まず、第1コスト算出部711は、すでに図6で説明したようにブロックマッチングによりコストを算出する。このコストを第1コストという。
<<< Details of Each Unit of Processing Range Calculation Unit >>>
First, details of each unit of the processing range calculation unit 710 will be described. First, the first cost calculation unit 711 calculates a cost by block matching as described with reference to FIG. This cost is called a first cost.

第1合成コスト算出部712は、第1コスト算出部711より通知された各画素領域のコストC(p,d)を合成することで第1合成コストSを算出し、合成結果を得る。第1合成コスト算出部712は、例えば、SGM(Semi−Global Matching)等の処理方法を用いて、複数の第1経路コストLrを算出し、それぞれの第1経路コストLrを、基準画素領域pに集約させることで、第1合成コストSを算出する。   The first combined cost calculator 712 calculates the first combined cost S by combining the costs C (p, d) of the respective pixel regions notified from the first cost calculator 711, and obtains a combined result. The first combined cost calculation unit 712 calculates a plurality of first path costs Lr using a processing method such as SGM (Semi-Global Matching), and calculates each first path cost Lr as the reference pixel area p. , The first combined cost S is calculated.

図12は、第1合成コスト算出部の機能構成の詳細を示す図である。図12に示すように、第1合成コスト算出部712は、第1経路コスト計算部1001と、第1合成コストS計算部1002とを有する。第1経路コスト計算部1001は、第1コスト算出部711よりコストC(p,d)を取得すると、下式(4)に基づいて、第1経路コストLr(p,d)を算出する。   FIG. 12 is a diagram illustrating details of the functional configuration of the first combined cost calculation unit. As shown in FIG. 12, the first combined cost calculator 712 includes a first route cost calculator 1001 and a first combined cost S calculator 1002. When acquiring the cost C (p, d) from the first cost calculating unit 711, the first route cost calculating unit 1001 calculates the first route cost Lr (p, d) based on the following equation (4).

ここで、上式(4)は、SGMを用いた経路コストLrの一般的な式である。また、上式(4)においてP1、P2は固定のパラメータである。 Here, the above equation (4) is a general equation of the path cost Lr using SGM. In the above equation (4), P1 and P2 are fixed parameters.

上式(4)のもと、第1経路コスト計算部1001では、基準画素領域pのコストC(p,d)に、図13に示されているr方向の各画素領域における第1経路コストLrの最小値を加算することで、第1経路コストLr(p,d)を求める。なお、図13は、第1経路コストLr(p,d)の算出におけるr方向を示す図である。   Based on the above equation (4), the first path cost calculation unit 1001 adds the first path cost in each pixel area in the r direction shown in FIG. 13 to the cost C (p, d) of the reference pixel area p. The first route cost Lr (p, d) is obtained by adding the minimum value of Lr. FIG. 13 is a diagram illustrating the r direction in the calculation of the first route cost Lr (p, d).

図13に示すように、第1経路コスト計算部1001では、基準画素領域pのr方向(例えば、r135方向)の一番端の画素領域において第1経路コストLr(例えば、Lr135(p−2r,d))を求める。続いて、第1経路コスト計算部1001では、r方向に沿って第1経路コストLr(Lr135(p−r,d))を求める。本実施形態において、第1経路コスト計算部1001は、これらの処理を繰り返すことで得られる第1経路コストLr(例えば、Lr135(p,d))を、8方向について算出し、第1経路コストLr0(p,d)〜Lr315(p,d)を得る。   As illustrated in FIG. 13, the first path cost calculation unit 1001 determines the first path cost Lr (for example, Lr135 (p−2r) in the endmost pixel area in the r direction (for example, r135 direction) of the reference pixel area p. , D)). Subsequently, the first route cost calculation unit 1001 obtains a first route cost Lr (Lr135 (pr, d)) along the r direction. In the present embodiment, the first route cost calculation unit 1001 calculates a first route cost Lr (for example, Lr135 (p, d)) obtained by repeating these processes in eight directions, and calculates the first route cost. Lr0 (p, d) to Lr315 (p, d) are obtained.

第1合成コストS計算部1002は、第1経路コスト計算部1001において求めた8方向の第1経路コストLr0(p,d)〜Lr315(p,d)に基づいて、下式(5)により第1合成コストS(p,d)を算出する。   Based on the first route costs Lr0 (p, d) to Lr315 (p, d) in eight directions obtained by the first route cost calculating unit 1001, the first combined cost S calculating unit 1002 calculates the following formula (5). The first combined cost S (p, d) is calculated.

第1合成コストS計算部1002は、算出した第1合成コストS(p,d)を、第1視差演算部713に通知する。 The first synthesis cost S calculation unit 1002 notifies the first parallax calculation unit 713 of the calculated first synthesis cost S (p, d).

第1視差演算部713は、第1合成コスト算出部712により算出された第1合成コストS(p,d)に基づいて、基準画素領域pに対応する比較画像Ia内の対応画素領域
を抽出し、基準画素領域pの視差を演算する。なお、第1コスト算出部711及び第1合成コスト算出部712は、基準画像Ib内の他の基準画素領域についても同様の処理を行う。そして、第1視差演算部713では、各基準画素領域について、それぞれの視差(第1視差)を演算し、演算結果を範囲決定部714に通知する。
The first parallax calculation unit 713 extracts a corresponding pixel area in the comparison image Ia corresponding to the reference pixel area p based on the first synthesis cost S (p, d) calculated by the first synthesis cost calculation unit 712. Then, the parallax of the reference pixel area p is calculated. Note that the first cost calculator 711 and the first combined cost calculator 712 perform the same processing for other reference pixel regions in the reference image Ib. Then, the first parallax calculation unit 713 calculates each parallax (first parallax) for each reference pixel region, and notifies the range determination unit 714 of the calculation result.

範囲決定部714は、第1視差演算部713より通知された視差(第1視差)の演算結果のうち、基準画素領域p及びその周辺の画素領域の視差を抽出し、処理範囲を決定する。図14を参照しながら、具体的に説明する。   The range determination unit 714 extracts the parallax of the reference pixel area p and the surrounding pixel areas from the calculation result of the parallax (first parallax) notified from the first parallax calculation unit 713, and determines the processing range. This will be specifically described with reference to FIG.

図14は、範囲決定部による処理範囲の決定方法を説明するための図であり、基準画像Ibのうち、レーザレーダ測距部120によりレーザ光が照射された照射位置(点530)及びその周辺の画素領域を示している。   FIG. 14 is a diagram for explaining a method of determining the processing range by the range determining unit. In the reference image Ib, the irradiation position (point 530) where the laser beam is irradiated by the laser radar ranging unit 120 and its surroundings 2 shows a pixel region of FIG.

図14に示すように、基準画像Ibのうち、点530の座標(xl,yl)により特定される位置に対応する実空間の物体にレーザ光が照射されたとする。なお、座標(xl,yl)は、基準画素領域pの座標(x,y)と一致していてもよいし、多少ずれていてもよい。   As shown in FIG. 14, it is assumed that a laser beam is irradiated on an object in the real space corresponding to the position specified by the coordinates (xl, yl) of the point 530 in the reference image Ib. Note that the coordinates (xl, yl) may coincide with the coordinates (x, y) of the reference pixel area p, or may be slightly shifted.

このような場合、範囲決定部714では、照射位置(xl,yl)を中心として、横方向に±1/2a画素分、縦方向に±b画素分の画素領域を抽出する。   In such a case, the range determination unit 714 extracts a pixel area of ± 1 / 2a pixels in the horizontal direction and ± b pixels in the vertical direction with the irradiation position (xl, yl) as the center.

範囲決定部714は、更に、第1視差演算部713において演算されたそれぞれの視差のうち、抽出した画素領域について演算された視差を抽出する。なお、図14の例は、紙面の都合上、範囲決定部714が抽出した画素領域について演算された視差のうち、左上の画素領域、右上の画素領域、左下の画素領域、右下の画素領域についてそれぞれ演算された視差のみを示している。   The range determining unit 714 further extracts the parallax calculated for the extracted pixel region from the parallax calculated by the first parallax calculating unit 713. Note that, in the example of FIG. 14, the upper left pixel area, the upper right pixel area, the lower left pixel area, and the lower right pixel area among the parallaxes calculated for the pixel areas extracted by the range determining unit 714 due to space limitations. Only parallax calculated for each is shown.

範囲決定部714は、更に、抽出した視差の中から、演算頻度が最大の視差を抽出する。そして、範囲決定部714は、演算頻度が最大の視差±1画素に相当する距離を、レーザ信号処理部240がレーザ受光信号を処理する際の処理範囲として決定する。   The range determination unit 714 further extracts a parallax with the highest calculation frequency from the extracted parallaxes. Then, the range determination unit 714 determines a distance corresponding to the parallax ± 1 pixel having the maximum calculation frequency as a processing range when the laser signal processing unit 240 processes the laser light reception signal.

具体的には、範囲決定部714は、抽出した視差のうち、演算頻度が最大の視差+1画素に相当する最小距離から、演算頻度が最大の視差−1画素に相当する最大距離までの範囲を、レーザ受光信号を処理する際の処理範囲に決定する。なお、視差から距離への変換には式(2)を使用する。   Specifically, the range determining unit 714 determines a range from the minimum distance corresponding to the parallax having the highest calculation frequency + 1 pixel to the maximum distance corresponding to the parallax having the highest calculation frequency−1 pixel among the extracted parallaxes. , The processing range for processing the laser light reception signal. Expression (2) is used for conversion from parallax to distance.

更に、範囲決定部714は、決定した処理範囲をレーザ信号処理部240に通知する。これにより、レーザ信号処理部240は、レーザ受光信号のうち、通知された処理範囲を対象として、物体での反射を示す信号を検出し、例えば、点530の距離情報を算出する。なお、レーザ信号処理部240は、通知された処理範囲を規定する最小距離と最大距離とをそれぞれ光速で除算することで時間範囲に変換した処理範囲を対象として、物体での反射を示す信号を検出する。   Further, the range determining unit 714 notifies the laser signal processing unit 240 of the determined processing range. Accordingly, the laser signal processing unit 240 detects a signal indicating reflection on the object in the notified processing range among the laser reception signals, and calculates, for example, distance information of the point 530. The laser signal processing unit 240 converts a signal indicating reflection on an object into a processing range converted into a time range by dividing each of the minimum distance and the maximum distance defining the notified processing range by the speed of light. To detect.

図15は、範囲決定部714により決定された処理範囲を示す図である。図15において、横軸は、レーザ光を照射してから受光するまでの応答時間を表し、縦軸は、レーザ受光信号の信号強度を表している。図15において、処理範囲1310、1320は、範囲決定部714により決定された処理範囲(時間範囲に変換した処理範囲)である。   FIG. 15 is a diagram illustrating the processing range determined by the range determining unit 714. In FIG. 15, the horizontal axis represents the response time from the irradiation of the laser beam to the reception of the laser beam, and the vertical axis represents the signal intensity of the laser light reception signal. In FIG. 15, processing ranges 1310 and 1320 are processing ranges (processing ranges converted into time ranges) determined by the range determining unit 714.

図15(a)は、レーザ光が照射される物体までの距離Lが短い場合のレーザ受光信号の一例を示している。図15(a)に示すように、レーザ光が照射される物体までの距離Lが短い場合、処理範囲1310において、物体での反射を示す信号の信号強度(611)と、物体以外での反射を示す信号の信号強度(1312)との差は更に大きくなる。このため、物体での反射を示す信号の検出が更に容易になる。   FIG. 15A shows an example of a laser light reception signal when the distance L to an object irradiated with laser light is short. As shown in FIG. 15A, when the distance L to the object irradiated with the laser beam is short, the signal strength (611) of the signal indicating the reflection on the object and the reflection on the object other than the object are determined in the processing range 1310. The difference between the signal strength and the signal strength (1312) is further increased. For this reason, detection of a signal indicating reflection from the object is further facilitated.

また、図15(b)は、レーザ光が照射される物体までの距離Lが長い場合のレーザ受光信号の一例を示している。図15(b)に示すように、レーザ光が照射される物体までの距離Lが長い場合であっても(例えば、点530についても)、処理範囲1320によれば、信号強度(621)と信号強度(1322)との差を大きくすることができる。つまり、物体での反射を示す信号の信号強度と、物体以外での反射を示す信号の信号強度との差を大きくすることができる。このため、物体での反射を示す信号を容易に検出することが可能となり、物体以外での反射を示す信号を、物体での反射を示す信号と誤検出してしまう可能性を低減させることができる。   FIG. 15B shows an example of the laser light reception signal when the distance L to the object irradiated with the laser light is long. As shown in FIG. 15B, even when the distance L to the object irradiated with the laser beam is long (for example, also at the point 530), according to the processing range 1320, the signal intensity (621) and The difference from the signal strength (1322) can be increased. That is, it is possible to increase the difference between the signal strength of the signal indicating the reflection on the object and the signal strength of the signal indicating the reflection on the object other than the object. For this reason, it is possible to easily detect the signal indicating the reflection on the object, and to reduce the possibility of erroneously detecting the signal indicating the reflection on the object other than the signal indicating the reflection on the object. it can.

なお、上記説明では、範囲決定部714が抽出した視差のうち、演算頻度が最大の視差±1画素に相当とする距離を処理範囲に決定する場合について説明したが、処理範囲の決定方法はこれに限定されない。例えば、範囲決定部714は、下式(6)に基づいて算出される視差に相当する処理範囲を決定するようにしてもよい。   In the above description, among the parallaxes extracted by the range determining unit 714, a case has been described in which a distance equivalent to the maximum parallax ± 1 pixel of the calculation frequency is determined as the processing range. It is not limited to. For example, the range determination unit 714 may determine a processing range corresponding to parallax calculated based on the following equation (6).

式(6)において、dmodeは、基準画素領域p及びその周辺の画素領域について演算された視差のうち、演算頻度が最大の視差である。wは、演算頻度が最大の視差から、標準偏差に対して、どれくらいの幅をもたせるかを示す係数である。n'は、基準画素領域p及びその周辺の画素領域について演算された整数の視差のうち、演算頻度が最大の視差に対して、±1画素以内に入っている視差の数を表している。d'は、基準画素領域p及びその周辺の画素領域について演算された整数の視差のうち、演算頻度が最大の視差に対して、±1画素以内に入っている視差を表している。 In the equation (6), dmode is the parallax with the highest calculation frequency among the parallaxes calculated for the reference pixel area p and the surrounding pixel areas. w is a coefficient indicating the width of the standard deviation from the parallax having the highest calculation frequency. n ′ represents the number of parallaxes within ± 1 pixel with respect to the parallax with the highest calculation frequency among the integer parallaxes calculated for the reference pixel area p and the surrounding pixel areas. d ′ represents a parallax that is within ± 1 pixel of the parallax with the highest calculation frequency among integer parallaxes calculated for the reference pixel area p and the surrounding pixel areas.

式(6)によれば、視差のばらつきが大きい場合に、処理範囲を広くし、視差のばらつきが小さい場合に、処理範囲を狭くすることができる。   According to Equation (6), the processing range can be widened when the variation in parallax is large, and the processing range can be narrowed when the variation in parallax is small.

<<視差画像生成部の各部の詳細>>
続いて、視差画像生成部720の各部の詳細について説明する。
<< Details of each unit of parallax image generation unit >>
Subsequently, details of each unit of the parallax image generation unit 720 will be described.

図16は、第2コスト算出部の機能構成の詳細を示す図である。第2コスト算出部721は、基準画像取得部1401、比較画像取得部1402、コストC計算部1403、コストC調整部1404を有する。また、第2コスト算出部721は、距離情報取得部1411、コストCl計算部1412、重み付け加算部1420を有する。   FIG. 16 is a diagram illustrating details of the functional configuration of the second cost calculator. The second cost calculation unit 721 includes a reference image acquisition unit 1401, a comparison image acquisition unit 1402, a cost C calculation unit 1403, and a cost C adjustment unit 1404. Further, the second cost calculation unit 721 includes a distance information acquisition unit 1411, a cost Cl calculation unit 1412, and a weighting addition unit 1420.

基準画像取得部1401は、右カメラ112から基準画像Ibを取得する。また、取得した基準画像Ibから、基準画素領域pを抽出する。比較画像取得部1402は、左カメラ111から比較画像Iaを取得する。   The reference image acquisition unit 1401 acquires the reference image Ib from the right camera 112. Further, a reference pixel area p is extracted from the acquired reference image Ib. The comparison image acquisition unit 1402 acquires the comparison image Ia from the left camera 111.

コストC計算部1403は、基準画素領域pのコストC(p,d)を算出する。なお、コストC(p,d)の算出方法は、図6を用いて説明済みである。   The cost C calculator 1403 calculates the cost C (p, d) of the reference pixel area p. The method of calculating the cost C (p, d) has been described with reference to FIG.

コストC調整部1404は、コストC計算部1403により算出された基準画素領域pのコストC(p,d)を、信頼度に基づいて調整する。コストC調整部1404は、下式(7)を用いて調整することで、調整後のコストC'(p,d)を得る。   The cost C adjusting unit 1404 adjusts the cost C (p, d) of the reference pixel area p calculated by the cost C calculating unit 1403 based on the reliability. The cost C adjustment unit 1404 obtains the adjusted cost C ′ (p, d) by performing adjustment using the following equation (7).

ここで、Dは、シフト量(視差)の最大値を表している。kはシフト量のカウント値を表している。また、Q(p)は、基準画素領域pのコストC(p,d)の信頼度を示している。信頼度Q(p)は、例えば、下式(8)を用いて算出される。 Here, D represents the maximum value of the shift amount (parallax). k represents a count value of the shift amount. Q (p) indicates the reliability of the cost C (p, d) of the reference pixel area p. The reliability Q (p) is calculated using, for example, the following equation (8).

ここで、Cmin1、Cmin2は、所定範囲(0〜D)でシフト量dを変化させることで算出されたそれぞれのコストC(p,d)のうち、最も低いコストと2番目に低いコストを表している。なお、上式(6)に基づいて算出される信頼度Q(p)は、Cmin1、Cmin2に基づいて算出した値を、0〜1.0未満に正規化し、信頼度が高いほど1.0に近づくよう補正したうえで、上式(7)に用いられるものとする。 Here, Cmin1 and Cmin2 represent the lowest cost and the second lowest cost among the respective costs C (p, d) calculated by changing the shift amount d within a predetermined range (0 to D). ing. The reliability Q (p) calculated based on the above equation (6) is obtained by normalizing the value calculated based on Cmin1 and Cmin2 to 0 to less than 1.0. Is corrected so as to approach, and is used in the above equation (7).

コストC調整部1404により調整された調整後のコストC'(p,d)は、例えば、テクスチャが少ない領域(隣り合う画素領域間の画素値の変化が少ない領域)に基準画素領域pがあり、信頼度Q(p)が低い場合には、より大きな値となる。   The adjusted cost C ′ (p, d) adjusted by the cost C adjusting unit 1404 is, for example, a reference pixel area p in an area with a small texture (an area in which a change in pixel value between adjacent pixel areas is small). When the reliability Q (p) is low, the value becomes larger.

距離情報取得部1411は、レーザ信号処理部240より距離情報を取得する。レーザ信号処理部240より取得する距離情報は、処理範囲を限定したことで誤検出の可能性が低減された距離情報である。ここでは、レーザ信号処理部240より取得した距離情報を、Zlとおく。距離情報取得部1411は、取得した距離情報ZlをコストCl計算部1412に通知する。   The distance information acquisition unit 1411 acquires distance information from the laser signal processing unit 240. The distance information obtained from the laser signal processing unit 240 is distance information in which the possibility of erroneous detection is reduced by limiting the processing range. Here, the distance information acquired from the laser signal processing unit 240 is set to Zl. The distance information acquiring unit 1411 notifies the acquired distance information Zl to the cost Cl calculating unit 1412.

コストCl計算部1412は、距離情報取得部1411より通知された距離情報Zlに基づいて、コストClを算出する。コストClとは、取得した距離情報Zlに基づいて導出される位置にある比較画像Ia内の画素領域と、基準画素領域pとの非類似度を示すパラメータである。   The cost Cl calculation unit 1412 calculates the cost Cl based on the distance information Zl notified from the distance information acquisition unit 1411. The cost Cl is a parameter indicating the degree of dissimilarity between the pixel region in the comparison image Ia at the position derived based on the acquired distance information Zl and the reference pixel region p.

具体的には、コストCl計算部1412では、まず、距離情報Zlに基づいて、下式(9)を用いてシフト量dlを算出する。これにより、距離情報Zlに基づいて導出される位置にある比較画像Ia内の画素領域が抽出される。   Specifically, the cost Cl calculation unit 1412 first calculates the shift amount dl using the following equation (9) based on the distance information Zl. As a result, a pixel region in the comparison image Ia at a position derived based on the distance information Zl is extracted.

上式(9)において、Bは、カメラレンズ211とカメラレンズ221との間の基線長である。fは、カメラレンズ211、カメラレンズ221の焦点距離である。 In the above equation (9), B is a base line length between the camera lens 211 and the camera lens 221. f is the focal length of the camera lens 211 and the camera lens 221.

コストCl計算部1412は、続いて、シフト量dlにおけるコストCl(p,dl)を算出する。上記したコストC(p,d)の算出と同様に、コストCl計算部1412では、シフト量dlの位置における画素領域511の画素値と基準画素領域pの画素値との非類似度として、コストCl(p,dl)を算出する。   Subsequently, the cost Cl calculation unit 1412 calculates the cost Cl (p, dl) for the shift amount dl. Similarly to the above-described calculation of the cost C (p, d), the cost Cl calculating unit 1412 calculates the cost as the dissimilarity between the pixel value of the pixel region 511 at the position of the shift amount dl and the pixel value of the reference pixel region p. Calculate Cl (p, dl).

重み付け加算部1420は、コストC調整部1404において調整された調整後のコストC'(p,d)と、コストCl計算部1412において算出されたコストCl(p,dl)とを用いて、下式(10)に基づいて重み付け加算し、重み付けコストを算出する。   The weighting addition unit 1420 uses the adjusted cost C ′ (p, d) adjusted by the cost C adjustment unit 1404 and the cost Cl (p, dl) calculated by the cost Cl calculation unit 1412 to calculate The weighted addition is performed based on the equation (10) to calculate the weighted cost.

ここで、wdは、コストC調整部1404により調整された調整後のコストC'(p,d)と、コストCl計算部1412により算出されたコストCl(p,dl)のいずれを優先するかを示す重み係数である。コストC調整部1404により調整された調整後のコストC'(p,d)を優先させる場合には、wdの値を大きくする。一方、コストCl計算部1412により算出されたコストCl(p,dl)を優先させる場合には、wdの値を小さくする。 Here, wd gives priority to the adjusted cost C ′ (p, d) adjusted by the cost C adjusting unit 1404 or the cost Cl (p, dl) calculated by the cost Cl calculating unit 1412. Is a weighting factor that indicates When giving priority to the adjusted cost C ′ (p, d) adjusted by the cost C adjusting unit 1404, the value of wd is increased. On the other hand, when giving priority to the cost Cl (p, dl) calculated by the cost Cl calculation unit 1412, the value of wd is reduced.

具体的には、シフト量d≠dlの場合、wdの値を大きくする。これにより、比較画像Ia内の画素領域511のうち、シフト量d≠dlの画素領域の重み付けコストをより大きくすることができる。なお、調整後のコストC'(p,d)は、例えば、テクスチャが少ない領域等においてより大きな値となっており、wdの値を大きくして調整後のコストC'(p,d)を優先させることで、シフト量d≠dlの画素領域の重み付けコストはより大きな値となる。   Specifically, when the shift amount d ≠ dl, the value of wd is increased. This makes it possible to further increase the weighting cost of the pixel area of the shift amount d ≠ dl in the pixel area 511 in the comparison image Ia. Note that the adjusted cost C ′ (p, d) has a larger value in, for example, an area with less texture, and the value of wd is increased to reduce the adjusted cost C ′ (p, d). By giving priority, the weighting cost of the pixel area with the shift amount d ≠ dl becomes a larger value.

一方、シフト量d=dlの場合、wdの値を小さくする。これにより、比較画像Ia内の画素領域511のうち、シフト量d=dlの画素領域の重み付けコストをより小さくすることができる。なお、コストCl計算部1412により算出されたコストCl(p,dl)は、コストC調整部1404により算出された調整後のコストC'(p,d)よりも小さい値となっている。このため、wdの値を小さくしてコストCl計算部1412により算出されたコストCl(p,dl)を優先させることで、シフト量d=dlの画素領域の重み付けコストはより小さな値となる。   On the other hand, when the shift amount d = dl, the value of wd is reduced. This makes it possible to further reduce the weighting cost of the pixel area with the shift amount d = dl among the pixel areas 511 in the comparison image Ia. The cost Cl (p, dl) calculated by the cost Cl calculating unit 1412 is a value smaller than the adjusted cost C ′ (p, d) calculated by the cost C adjusting unit 1404. For this reason, by making the value of wd smaller and giving priority to the cost Cl (p, dl) calculated by the cost Cl calculator 1412, the weighting cost of the pixel area with the shift amount d = dl becomes smaller.

つまり、上式(10)によれば、シフト量d=dlの画素領域とそれ以外の画素領域との間のコストの差を、重み付けコストとして、より顕在化させることができる。   That is, according to the above equation (10), the difference in cost between the pixel area with the shift amount d = dl and the other pixel areas can be made more apparent as the weighting cost.

この結果、第2合成コスト算出部722により算出される第2合成コストS'から対応画素領域を抽出する際に、比較画像Ia内のd=dlの画素領域が抽出しやすくなる。つまり、基準画素領域pに対応する対応画素領域の位置512を精度よく抽出することが可能となる。   As a result, when extracting the corresponding pixel region from the second combined cost S ′ calculated by the second combined cost calculation unit 722, the pixel region of d = dl in the comparison image Ia is easily extracted. That is, it is possible to accurately extract the position 512 of the corresponding pixel area corresponding to the reference pixel area p.

なお、上式(10)において、wdの値は、固定値であってもよいし、距離情報Zlの値に応じて変更してもよい。あるいは、周囲環境に応じて(例えば、日中か夜間かに応じて)変更するように構成してもよい。   In the above equation (10), the value of wd may be a fixed value, or may be changed according to the value of the distance information Zl. Alternatively, it may be configured to change according to the surrounding environment (for example, during the day or at night).

重み付け加算部1420は、上式(10)に基づいて算出した重み付けコストを、第2合成コスト算出部722に通知する。   The weighting addition unit 1420 notifies the second combined cost calculation unit 722 of the weighted cost calculated based on the above equation (10).

図17は、第2合成コスト算出部の機能構成の詳細を示す図である。図17に示すように、第2合成コスト算出部722は、第2経路コスト計算部1501と、第2合成コストS'計算部1502とを有する。   FIG. 17 is a diagram illustrating details of the functional configuration of the second combined cost calculation unit. As shown in FIG. 17, the second combined cost calculator 722 includes a second route cost calculator 1501 and a second combined cost S ′ calculator 1502.

第2合成コスト算出部722は、第2コスト算出部721より通知された各画素領域の重み付けコストを合成することで第2合成コストS'を算出し、合成結果を得る。第2合成コスト算出部722は、例えば、SGM(Semi−Global Matching)等の処理方法を用いて、複数の第2経路コストLr'を算出し、それぞれの第2経路コストLr'を、基準画素領域pに集約させることで、第2合成コストS'を算出する。   The second combined cost calculator 722 calculates the second combined cost S ′ by combining the weighted costs of the respective pixel regions notified from the second cost calculator 721, and obtains a combined result. The second combined cost calculator 722 calculates a plurality of second route costs Lr ′ using a processing method such as SGM (Semi-Global Matching), and calculates each second route cost Lr ′ as a reference pixel. The second combined cost S ′ is calculated by consolidating in the area p.

第2合成コスト算出部722は重み付けコストを取得すると、下式(11)に基づいて、第2経路コストLr'(p,d)を算出する。   Upon acquiring the weighted cost, the second combined cost calculation unit 722 calculates the second route cost Lr ′ (p, d) based on the following equation (11).

ここで、式(11)は、SGMを用いた経路コストの一般的な式において、コストC(p,d)を、重み付けコストに置き換えたものである。また、上式(11)においてP1、P2は固定のパラメータである。 Here, equation (11) is obtained by replacing the cost C (p, d) with a weighted cost in a general equation of the path cost using SGM. In the above equation (11), P1 and P2 are fixed parameters.

式(11)によれば、第2合成コスト算出部722は、基準画素領域pの重み付けコストに、r方向の各画素領域における第2経路コストLr'の最小値を加算することで、r方向の第2経路コストLr'(p,d)を求める。なお、第2合成コスト算出部722は、r0〜r315方向それぞれについて、第2経路コストを算出することで、第2経路コストLr0'(p,d)〜Lr315'(p,d)を得る。   According to Expression (11), the second combined cost calculation unit 722 adds the minimum value of the second path cost Lr ′ in each pixel region in the r direction to the weighted cost of the reference pixel region p, and Of the second path Lr ′ (p, d) of The second combined cost calculation unit 722 calculates the second route cost for each of the r0 to r315 directions, thereby obtaining the second route costs Lr0 ′ (p, d) to Lr315 ′ (p, d).

第2合成コスト算出部722は、8方向の第2経路コストLr0'(p,d)〜Lr315'(p,d)に基づいて、下式(12)により第2合成コストS'(p,d)を算出する。   Based on the second route costs Lr0 ′ (p, d) to Lr315 ′ (p, d) in eight directions, the second combined cost calculation unit 722 calculates the second combined cost S ′ (p, d) is calculated.

第2視差演算部723は、第2合成コスト算出部722により算出された第2合成コストS'に基づいて、基準画素領域pに対応する比較画像Ia内の対応画素領域を抽出し、基準画素領域pの視差を再演算する。 The second parallax calculation unit 723 extracts a corresponding pixel area in the comparison image Ia corresponding to the reference pixel area p based on the second synthesis cost S ′ calculated by the second synthesis cost calculation unit 722, and Recalculate the parallax of the area p.

図18は、基準画素領域pにおける第2合成コストS'の算出結果を示す図である。第2視差演算部723は、所定範囲(0〜D)において、第2合成コストS'(p,d)が最小となるシフト量dminを算出することで、比較画像Iaより対応画素領域を抽出する。これにより、第2視差演算部723では、抽出した対応画素領域と基準画素領域との視差(第2視差)として、シフト量dminを取得できる。   FIG. 18 is a diagram illustrating a calculation result of the second combined cost S ′ in the reference pixel area p. The second parallax calculation unit 723 calculates a shift amount dmin that minimizes the second combined cost S ′ (p, d) in the predetermined range (0 to D), thereby extracting a corresponding pixel region from the comparison image Ia. I do. Thereby, the second parallax calculating unit 723 can acquire the shift amount dmin as the parallax (second parallax) between the extracted corresponding pixel region and the reference pixel region.

なお、第2視差演算部723は、基準画像Ib内の他の基準画素領域についても同様の処理を行い視差(第2視差)の再演算結果を取得することで、視差画像を生成し、生成した視差画像をメモリ260に格納する。   Note that the second parallax calculating unit 723 generates a parallax image by performing the same processing on other reference pixel regions in the reference image Ib and obtaining a recalculation result of the parallax (second parallax). The obtained parallax image is stored in the memory 260.

<反射信号が極めて微弱な場合に備えたアンダーシュート処理>
処理範囲から反射信号を検出することで、レーザ信号処理部240は受光信号における反射信号の検出精度を上げることができる。しかし、そもそも反射信号が極めて弱い場合には処理範囲から反射信号を検出することが困難になる。図19を用いて説明する。
<Undershoot processing in case the reflected signal is extremely weak>
By detecting the reflected signal from the processing range, the laser signal processing unit 240 can increase the detection accuracy of the reflected signal in the received light signal. However, if the reflected signal is extremely weak in the first place, it becomes difficult to detect the reflected signal from the processing range. This will be described with reference to FIG.

図19は、遠方が撮像された画像データとこのような遠方の物体からの反射信号の一例を示す図である。図19(a)は例えば右カメラ112が撮像した基準画像の全体であり、図19(b)は図19(a)の一部を拡大した画像である。図19(a)では143〔m〕先にレーザ光の反射率が低い物体(黒い幕)が置かれており、図19(b)はレーザ光の反射率が低い物体(黒い幕)を示す。   FIG. 19 is a diagram illustrating an example of image data captured at a distant place and a reflection signal from such a distant object. FIG. 19A is an entire reference image captured by the right camera 112, for example, and FIG. 19B is an image obtained by enlarging a part of FIG. 19A. In FIG. 19A, an object having a low reflectance of laser light (black curtain) is placed 143 [m] ahead, and FIG. 19B shows an object having a low reflectance of laser light (black curtain). .

また、図19(c)はレーザ光の反射率が低い物体(黒い幕)を照射方向とするレーザ光の反射信号である。レーザ光の反射率が低い物体(黒い幕)は143〔m〕先にあるため、往復の時間を考慮すると照射してから約1×10−6秒に反射信号のピークが現れる。図19(c)では丸701で囲んだ部分がレーザ光の反射率が低い物体からの反射信号を示す。 FIG. 19C shows a reflection signal of a laser beam whose irradiation direction is an object (black curtain) having a low reflectance of the laser beam. Since the object (black curtain) having a low laser light reflectance is 143 [m] ahead, the peak of the reflected signal appears at about 1 × 10 −6 seconds after irradiation, considering the round-trip time. In FIG. 19C, a portion surrounded by a circle 701 indicates a reflection signal from an object having a low reflectance of laser light.

図19(c)に示すように、この反射信号は周囲のノイズに紛れているため、予めピークがどこにあるかを知っていなければ人間が見た場合でも判断が付かないほど小さい信号レベルになっている。   As shown in FIG. 19 (c), since the reflected signal is mixed with the surrounding noise, the signal level becomes so small that even if it is seen by a human, it cannot be judged even if a person does not know in advance where the peak is. ing.

距離による減衰に加えて、進行方向の前方から太陽光が差し込む逆光の状況では(車載用途では容易に起こる)、太陽光によってノイズも非常に大きくなってしまい、更に状況が悪化する。この様な状況であっても、物体からの反射信号を強調する技術について説明する。   In addition to the attenuation due to the distance, in a backlight situation where sunlight shines from the front in the traveling direction (which easily occurs in an in-vehicle application), the noise becomes very large due to the sunlight, and the situation is further worsened. A technique for enhancing a reflected signal from an object even in such a situation will be described.

図20は、物体からの反射信号を強調するPD出力検出部44の構成例を示す。図20のPD出力検出部44は、電流電圧変換器44a、信号増幅器44b、及び、二値化回路44cを含む。時間計測用PD42で受光された物体からの反射信号は、時間計測用PD42が電流値に変換し、該電流値が出力電流としてPD出力検出部44に入力される。   FIG. 20 shows a configuration example of the PD output detection unit 44 that emphasizes a reflection signal from an object. 20 includes a current-voltage converter 44a, a signal amplifier 44b, and a binarization circuit 44c. The reflection signal from the object received by the time measurement PD 42 is converted by the time measurement PD 42 into a current value, and the current value is input to the PD output detection unit 44 as an output current.

電流電圧変換器44aは、入力された電流値を電圧値に変換する。該電圧値が信号増幅器44bで増大され、出力電圧(反射信号)として出力される。この際、信号増幅器44bは負帰還の機能を有する、例えばオペアンプOAを含む非反転増幅回路(負帰還回路)を用い、その増幅度を小さくとることにより、帰還が強くかかり、受光信号にアンダーシュート及びオーバーシュートが生じる。物体からの反射光パルスは、発光パルスと略同一の波形を有しており、そのパルス幅は上記のように10ns〜数十nsである。この反射光パルスに十分速く応答できること(高速応答性)がPD出力検出部44には望まれる。   The current-voltage converter 44a converts the input current value into a voltage value. The voltage value is increased by the signal amplifier 44b and output as an output voltage (reflection signal). At this time, the signal amplifier 44b uses a non-inverting amplifier circuit (negative feedback circuit) having a negative feedback function, for example, including an operational amplifier OA. And overshoot occurs. The reflected light pulse from the object has substantially the same waveform as the emission pulse, and the pulse width is 10 ns to several tens ns as described above. It is desired for the PD output detection unit 44 to be able to respond to this reflected light pulse sufficiently quickly (high-speed response).

アンダーシュート、オーバーシュートが起きる原理は、質点、ばね、減衰器で構成される位置制御の系において、ばね定数を大きくしすぎる(帰還を強くかけすぎる)と、定常位置から行き過ぎたり(オーバーシュート)戻ったり(アンダーシュート)を繰り返し、減衰振動をしながら定常位置に落ち着く、という現象と同様の原理である。   The principle that undershoot and overshoot occur is that in a position control system composed of a mass point, a spring, and an attenuator, if the spring constant is too large (too much feedback is applied), the overshoot may occur from the steady position (overshoot). This is the same principle as the phenomenon of returning to (undershoot) repeatedly and settling to a steady position while performing damped vibration.

なお、図20の構成は一例に過ぎず、PD出力検出部44は信号増幅器44bの出力の高周波数成分を出力するハイパスフィルタを含むなどの構成であってもよい。   Note that the configuration in FIG. 20 is merely an example, and the PD output detection unit 44 may include a high-pass filter that outputs a high-frequency component of the output of the signal amplifier 44b.

図21(A)には比較例1の受光信号波形が示され、図21(B)には本実施形態の受光信号波形が示されている。図21(A)に示される比較例1の受光信号波形は、アンダーシュートを発生させない場合に、ノイズが乗った5つの受光信号の波形と、受光信号毎に計測される受光時刻2(該受光信号の立下りが閾値電圧と一致するタイミング)のシミュレーション結果である。アンダーシュートを発生させない場合、受光信号(出力電圧)の立下りが遅く(緩やかであり)、ノイズに起因するゆらぎにより、受光時刻2の計測誤差が大きくなることがわかる。   FIG. 21A shows a light receiving signal waveform of Comparative Example 1, and FIG. 21B shows a light receiving signal waveform of the present embodiment. The light receiving signal waveform of Comparative Example 1 shown in FIG. 21 (A) shows the waveform of five light receiving signals with noise and the light receiving time 2 (the light receiving time) measured for each light receiving signal when undershoot does not occur. This is a simulation result of the timing at which the falling of the signal coincides with the threshold voltage). When the undershoot is not generated, the falling of the light receiving signal (output voltage) is slow (slow), and the measurement error at the light receiving time 2 increases due to the fluctuation caused by the noise.

負帰還を用いた増幅回路において、増幅率を大きくしすぎたり入力信号に対して回路の帯域を狭くしすぎたりすると帰還が弱くなりアンダーシュートが起こらない。増幅率を小さくしすぎて且つ回路の帯域を広く取るとアンダーシュート後のリンギングが大きくなってしまい信号立下り後に再び閾値を超えてしまう。信号立下り後に再び受光信号が閾値を超えてしまった場合、時間計測回路によって二つ目の物体として認識されてしまい、パルスの誤検出という問題が起こる。このパルス誤検出を防ぐためにリンギングそのものを抑えると、アンダーシュートの効果が弱くなる恐れがある。   In an amplifier circuit using negative feedback, if the amplification factor is too large or the band of the circuit is too narrow for an input signal, the feedback becomes weak and no undershoot occurs. If the amplification factor is too small and the bandwidth of the circuit is widened, the ringing after undershoot increases and the threshold value is exceeded again after the signal falls. If the light receiving signal exceeds the threshold value again after the signal falls, the light receiving signal is recognized as a second object by the time measuring circuit, and a problem of erroneous detection of a pulse occurs. If the ringing itself is suppressed to prevent this erroneous pulse detection, the effect of the undershoot may be weakened.

図21(B)に示される実施例1の受光信号波形は、アンダーシュートを発生させた場合に、ノイズが乗った5つの受光信号の波形と、受光信号毎に計測される受光時刻2のシミュレーション結果である。結果として、実施例1では、比較例1と比較して、受光信号の立下りが速く(急であり)、ノイズに起因するゆらぎを抑制でき、受光時刻2の計測誤差を小さくできることがわかる。比較例1では、5回の測定での測定誤差が11ns(距離に換算すると1.6m)であるのに対し、実施例1の場合には、5回の測定での測定誤差は3ns(距離に換算すると0.5m)となる。   The light receiving signal waveform of Example 1 shown in FIG. 21B is a simulation of the waveform of five light receiving signals with noise and the light receiving time 2 measured for each light receiving signal when an undershoot occurs. The result. As a result, it can be seen that in Example 1, the falling of the light receiving signal is faster (sharper), the fluctuation caused by noise can be suppressed, and the measurement error at the light receiving time 2 can be reduced as compared with Comparative Example 1. In Comparative Example 1, the measurement error in five measurements was 11 ns (1.6 m in terms of distance), whereas in Example 1, the measurement error in five measurements was 3 ns (distance 0.5m).

比較例1、実施例1の受光信号波形は、それぞれ図22(A)(B)に示される負帰還回路44b−1、44b−2を、信号増幅器44bとして用いた場合をシミュレートした結果である。各負帰還回路44b−2は、一端が接地され又は該一端にバイアス電圧が印加され、他端がオペアンプOAの−(マイナス)の入力端に接続された抵抗R1と、オペアンプOAにそれぞれ並列に接続された抵抗R2及びコンデンサC1と、オペアンプの出力側のコンデンサC3と、コンデンサC3を設置する抵抗R3とを有している。   The light receiving signal waveforms of Comparative Example 1 and Example 1 are results of simulating the case where the negative feedback circuits 44b-1 and 44b-2 shown in FIGS. 22A and 22B are used as the signal amplifier 44b. is there. Each of the negative feedback circuits 44b-2 is connected in parallel to a resistor R1 having one end grounded or a bias voltage applied to one end thereof, and the other end connected to a negative input terminal of the operational amplifier OA, and the operational amplifier OA. It has a connected resistor R2 and capacitor C1, a capacitor C3 on the output side of the operational amplifier, and a resistor R3 for installing the capacitor C3.

オペアンプOAの+の入力端には、電流電圧変換器44aからの電圧値が入力される。なお、各負帰還回路において、コンデンサC1は、必須ではない。実施例1では、C1=1pF、R1=1kΩ、R2=3kΩ、C2=30pF、R3=500Ωとされているが、数値は一例に過ぎない。   The voltage value from the current-voltage converter 44a is input to the + input terminal of the operational amplifier OA. In each negative feedback circuit, the capacitor C1 is not essential. In the first embodiment, C1 = 1 pF, R1 = 1 kΩ, R2 = 3 kΩ, C2 = 30 pF, and R3 = 500Ω, but the numerical values are merely examples.

図23は、アンダーシュート処理された1つの反射信号を示す。本実施形態では、図23に示す反射信号のように、アンダーシュート後にリンギングが収まるのにかかる時間(整定時間R:リンギングの振幅が受光信号の最大振幅の5%以下になるのにかかる時間)よりもグラウンドレベル(ゼロ)に復帰するのにかかる時間の方が長い波形を実現することで、パルスの誤検出の防止とアンダーシュートによる距離測定精度の向上を同時に実現している。   FIG. 23 shows one reflected signal subjected to the undershoot processing. In the present embodiment, like the reflection signal shown in FIG. 23, the time required for the ringing to settle after the undershoot (settling time R: the time required for the amplitude of the ringing to become 5% or less of the maximum amplitude of the received light signal). By realizing a waveform that takes a longer time to return to the ground level (zero) than that, prevention of erroneous detection of a pulse and improvement in distance measurement accuracy due to undershoot are realized at the same time.

このような受光波形は、例えば図22(B)に示した信号増幅器44bを用い、半値全幅11〔ns〕の釣鐘型パルスを入力することで実現される。負帰還回路でアンダーシュートを起こした後に時定数の大きいハイパスフィルタでグラウンドへの放電を妨げることで図23の受光波形を実現することができる。   Such a received light waveform is realized by, for example, inputting a bell-shaped pulse having a full width at half maximum of 11 [ns] using the signal amplifier 44b shown in FIG. The light receiving waveform of FIG. 23 can be realized by preventing the discharge to the ground by a high-pass filter having a large time constant after the undershoot occurs in the negative feedback circuit.

<アンダーシュート処理された反射信号からのピークの検出>
図24を用いて、アンダーシュート処理された反射信号の一例を説明する。図24は、レーザ光の反射率が低い物体(黒い幕)からの反射信号を説明する図の一例である。図24(a)はアンダーシュート処理された反射信号を示し、図24(b)は図24(a)から物体までの距離に対応する一部の反射信号(拡大したもの)を示す。
<Detection of peak from reflected signal after undershoot processing>
An example of the undershoot-processed reflected signal will be described with reference to FIG. FIG. 24 is an example of a diagram illustrating a reflection signal from an object (black curtain) having a low reflectance of laser light. FIG. 24A shows the reflected signal subjected to the undershoot processing, and FIG. 24B shows a part of the reflected signal (enlarged) corresponding to the distance from the object shown in FIG.

図24(b)に示すように、アンダーシュートを起こした反射信号のうち前半の20〔ns〕の山部分が物体でレーザ光が反射したことを示す反射信号の周期である。後半の40〔ns〕の谷部分がアンダーシュート幅(アンダーシュート部分の周期)である。   As shown in FIG. 24 (b), the first 20 [ns] of the reflected signal in which the undershoot has occurred is the period of the reflected signal indicating that the laser light has been reflected by the object. The valley portion of the second half 40 [ns] is the undershoot width (cycle of the undershoot portion).

物体からの反射による周期は発光パルス幅と受光素子駆動部の応答速度の関係で決まる。すなわち、受光素子駆動部が十分に早く応答できればレーザ光のパルス幅と同等になり、受光素子駆動部の応答速度が遅ければ受光素子駆動部の応答速度により長くなる。また、アンダーシュート幅は信号増幅器44bの素子の値を変更することで、設計することができる。   The period due to reflection from the object is determined by the relationship between the light emission pulse width and the response speed of the light receiving element driving unit. That is, the pulse width of the laser light becomes equal to the pulse width of the laser light if the light receiving element driving section can respond sufficiently fast, and becomes longer than the response speed of the light receiving element driving section if the response speed of the light receiving element driving section is slow. Further, the undershoot width can be designed by changing the values of the elements of the signal amplifier 44b.

本実施形態では、アンダーシュートの幅Δt_uが反射信号の幅Δt_rよりも大きく設定されることが特徴の1つとなっている。換言すると、アンダーシュートの周波数f_uが反射信号の周波数f_rよりも低く設定される。これによりパルスの誤検出を防止してかつアンダーシュートによりパルスを相対的に大きくすることができる。
Δt_u > Δt_r
f_u < f_r
反射信号の幅20〔ns〕を周期とする周波数は25〔Mhz〕であり、アンダーシュートの幅40〔ns〕を周期とする周波数は12.5〔Mhz〕である。これらの周期の信号を反射信号から取り出すことを考えると、12.5〜25〔Mhz〕以下の信号を通過させるローパスフィルタを用いられる。
The present embodiment is characterized in that the width Δt_u of the undershoot is set to be larger than the width Δt_r of the reflected signal. In other words, the frequency f_u of the undershoot is set lower than the frequency f_r of the reflected signal. Thereby, erroneous detection of the pulse can be prevented, and the pulse can be relatively large due to undershoot.
Δt_u> Δt_r
f_u <f_r
The frequency having a cycle of 20 [ns] of the reflected signal is 25 [Mhz], and the frequency having a cycle of 40 [ns] of the undershoot is 12.5 [Mhz]. Considering that signals of these periods are extracted from the reflected signal, a low-pass filter that passes signals of 12.5 to 25 [Mhz] or less is used.

図25は、物体からの反射信号を強調するPD出力検出部44の構成例を示す。図25のPD出力検出部44は、図20の構成に加えLPF44dを有している。LPF44dのカットオフ周波数fcは、
f_u < f_r < f_c
の関係を満たす。図25に示すように、カットオフ周波数fcを反射信号の周波数f_r以上に設定したLPF44dを反射信号に通過させる。
FIG. 25 shows a configuration example of a PD output detection unit 44 that emphasizes a reflection signal from an object. The PD output detection unit 44 in FIG. 25 has an LPF 44d in addition to the configuration in FIG. The cutoff frequency fc of the LPF 44d is
f_u <f_r <f_c
Satisfy the relationship. As shown in FIG. 25, the LPF 44d whose cutoff frequency fc is set to be equal to or higher than the frequency f_r of the reflected signal is passed through the reflected signal.

このようなLPF44dによれば、まず、ノイズとなる高周波数成分をカットすること(フィルタリング処理)ができる。また、LPF44dはカットオフ周波数fcが上記の関係を満たすように調整されているので、物体に対応するピークの周波数よりも周波数が低いアンダーシュートを付随させることができる。このアンダーシュートの恩恵で、反射信号の振幅を相対的に大きくすることができる。すなわち、LPF44dは反射信号を強調することができる。   According to the LPF 44d, first, high-frequency components that become noise can be cut (filtering processing). Also, since the LPF 44d is adjusted so that the cutoff frequency fc satisfies the above relationship, an undershoot whose frequency is lower than the frequency of the peak corresponding to the object can be added. With the benefit of this undershoot, the amplitude of the reflected signal can be relatively increased. That is, the LPF 44d can enhance the reflected signal.

特許文献1(特開2017−062169号公報)においてアンダーシュートの量を大きく確保するのは「ピークを強調する」ためではなく、「ピークの立下りを早くして、立下り時刻を遅延なく得る」ためである。本実施形態のLPF44dは「ピークを強調すること」が目r的であり、アンダーシュート処理を施す第1の処理回路とは別にLPF44d(フィルタ回路)を備えている点で相違している。   In Patent Literature 1 (Japanese Patent Laid-Open No. 2017-062169), the purpose of ensuring a large amount of undershoot is not to “emphasize peaks”, but to “make a fall of a peak earlier and obtain a fall time without delay. That's why. The purpose of the LPF 44d of the present embodiment is to “emphasize peaks”, and is different in that an LPF 44d (filter circuit) is provided separately from the first processing circuit that performs undershoot processing.

なお、二値化回路44cにはステレオカメラ部110から送出された処理範囲が入力され、二値化回路44cは処理範囲の反射信号を二値化する。これにより、反射信号が極めて微弱でも物体に対応する時刻の反射信号のピークを検出可能になる。   The processing range sent from the stereo camera unit 110 is input to the binarization circuit 44c, and the binarization circuit 44c binarizes the reflected signal in the processing range. This makes it possible to detect the peak of the reflected signal at the time corresponding to the object even if the reflected signal is extremely weak.

図24(c)は図24(a)の反射信号の低周波数成分がLPF44dでカットされた反射信号を示す。図24(c)では、物体受光信号幅Δt_r=20[ns] (周波数f_r=25[MHz])、アンダーシュート幅Δt_u=40[ns] (周波数f_u=12.5[MHz])で、LPF44dのカットオフ周波数f_c=30[MHz]と設定した例を示す。   FIG. 24C shows a reflected signal in which the low frequency component of the reflected signal of FIG. 24A is cut by the LPF 44d. In FIG. 24C, the LPF 44d is cut with the object light receiving signal width Δt_r = 20 [ns] (frequency f_r = 25 [MHz]) and the undershoot width Δt_u = 40 [ns] (frequency f_u = 12.5 [MHz]). An example in which the off frequency f_c is set to 30 [MHz] is shown.

図24(c)に示すように、適切なカットオフ周波数のLPF44dを適用することで、物体までの距離に相当する時刻に明確なピークを確認できるようになる。したがって、ステレオ画像演算部250からの処理範囲を使って、PD出力検出部44が物体までの距離に対応する時刻を絞り込めば、反射信号が極めて微弱な場合でも反射信号のピークを検出可能になる。   As shown in FIG. 24C, by applying the LPF 44d having an appropriate cutoff frequency, a clear peak can be confirmed at a time corresponding to the distance to the object. Therefore, if the PD output detection unit 44 narrows down the time corresponding to the distance to the object using the processing range from the stereo image calculation unit 250, the peak of the reflection signal can be detected even if the reflection signal is extremely weak. Become.

なお、図24で用いた周期や周波数は一例に過ぎず、「f_u,f_r,f_cがf_u< f_r<f_c」の関係を満たしていればよい。   Note that the cycle and frequency used in FIG. 24 are merely examples, and it is sufficient that “f_u, f_r, f_c” satisfies the relationship of f_u <f_r <f_c.

例えば、LDからの発光パルス幅が12[ns]の場合であるが、PDの駆動部の応答性が十分でなく、物体受光信号幅が膨らんでしまい48[ns]になってしまったとしても、48[ns]に対応する周波数をf_rとし、アンダーシュートの周波数はそれより低く、カットオフ周波数はそれより高く設定することで、同様の効果を得ることができる。   For example, in the case where the light emission pulse width from the LD is 12 [ns], even if the response of the drive unit of the PD is not sufficient and the object light receiving signal width expands to 48 [ns]. , 48 [ns] is set to f_r, the undershoot frequency is set lower, and the cutoff frequency is set higher, the same effect can be obtained.

また、図24ではLPF44dを通過させて得られる効果について説明したが、本実施形態はLPF44dに限られるものではなく、f_rよりも低周波数側の周波数をカットすればよい。例えば、いわゆるBPF(バンドパスフィルター)を採用することもできる。この場合、高周波数側のカットオフ周波数をf_cH、低周波数側のカットオフ周波数をf_cLとして、
f_cL <f_u < f_r <f_cH
の関係を満たすようなフィルタリング処理を行えばよい。
In FIG. 24, the effect obtained by passing through the LPF 44d has been described. However, the present embodiment is not limited to the LPF 44d, and a frequency lower than f_r may be cut. For example, a so-called BPF (bandpass filter) can be employed. In this case, the cutoff frequency on the high frequency side is f_cH, and the cutoff frequency on the low frequency side is f_cL,
f_cL <f_u <f_r <f_cH
Filtering processing that satisfies the relationship may be performed.

例えば、ショットノイズや逆光によるホワイトノイズのうち低周波数成分をカットすることで、物体反射信号を更に検出しやすくしたり、何らかの低周波数の特徴的なノイズを効果的に除去できたりするなどの効果を期待できる。   For example, by cutting low-frequency components of shot noise and white noise due to backlight, the object reflection signal can be more easily detected, and some low-frequency characteristic noise can be effectively removed. Can be expected.

<アンダーシュート処理により生じる不都合>
しかしながら、反射信号にアンダーシュート信号を発生させた場合、隊列被写体の検出に不都合が生じる。隊列被写体とは、複数の物体(例えば人と車)がレーザレーダ測距部120から見て同じ方向に列を成すように並んでいる状態の被写体をいう。
<Inconvenience caused by undershoot processing>
However, when an undershoot signal is generated in the reflected signal, there is a problem in detecting a row subject. A row subject is a subject in which a plurality of objects (for example, a person and a vehicle) are arranged in a line in the same direction as viewed from the laser radar distance measuring unit 120.

図26は、隊列被写体の一例を示す。図26では、車両の手前に歩行者が存在しているため、レーザレーダ測距部120から見て歩行者811と車両810が列をなしている。隊列被写体の複数の物体の距離が近い場合、手前の物体の反射信号のアンダーシュート部分と、奥の物体の反射信号が重なってしまい、結果として反射信号の形がひずんでしまうという不都合が生じる。   FIG. 26 shows an example of a row subject. In FIG. 26, since a pedestrian is present in front of the vehicle, the pedestrian 811 and the vehicle 810 form a line when viewed from the laser radar distance measurement unit 120. When the distance between the plurality of objects in the platoon subject is short, the undershoot portion of the reflection signal of the object in front and the reflection signal of the object in the back overlap each other, and as a result, the shape of the reflection signal is distorted.

図27は、アンダーシュート処理された隊列被写体の反射信号の一例を示す。なお、図27は実際の反射信号ではなくアンダーシュート処理された反射信号の不都合を説明するための信号例である。図27に示すように、車の反射信号のピーク703と人の反射信号704のアンダーシュート部分が打ち消しあい、車の反射信号のピーク703が消失している。すなわち、奥の物体である車の反射信号のピーク703が完全に消えてしまい、実際に得られる反射信号702の形状が期待しているものとは大きく違ってしまっている。   FIG. 27 shows an example of a reflected signal of a row subject subjected to undershoot processing. FIG. 27 is a signal example for explaining the inconvenience of the reflected signal subjected to the undershoot processing instead of the actual reflected signal. As shown in FIG. 27, the peak 703 of the reflected signal of the car and the undershoot portion of the reflected signal 704 of the person cancel each other, and the peak 703 of the reflected signal of the car disappears. In other words, the peak 703 of the reflected signal of the car, which is a deep object, disappears completely, and the shape of the actually obtained reflected signal 702 is greatly different from what is expected.

この不都合を回避するために、本実施形態ではアンダーシュートありの反射信号とアンダーシュートなしの反射信号の両方を取得する構成を採用する。図28を用いて説明する。   In order to avoid this inconvenience, the present embodiment employs a configuration that acquires both a reflected signal with an undershoot and a reflected signal without an undershoot. This will be described with reference to FIG.

図28はPD出力検出部44の一例の構成図を示す。図28のPD出力検出部44は3つの処理系統を有している。
処理系統1:アンダーシュートなし
処理系統2:アンダーシュートあり+LPF
処理系統3:アンダーシュートなし
処理系統1はアンダーシュート処理がないため、極めて微弱な反射信号から物体までの距離を検出する処理には向かないが、隊列被写体に含まれる複数の物体の反射信号から各物体に対応したピークを検出できる。
FIG. 28 is a configuration diagram of an example of the PD output detection unit 44. The PD output detection unit 44 in FIG. 28 has three processing systems.
Processing system 1: Without undershoot Processing system 2: With undershoot + LPF
Processing system 3: No undershoot Processing system 1 is not suitable for processing to detect the distance to an object from an extremely weak reflection signal because there is no undershoot processing. Peaks corresponding to each object can be detected.

処理系統2はアンダーシュート処理とLPF44dにより、隊列被写体に含まれる複数の物体の距離の検出には向かないが、反射信号が極めて微弱な場合にも物体までの距離を検出できる。処理系統1の信号増幅器44bと処理系統2の信号増幅器44bは、抵抗及びコンデンサの値が異なっており、処理系統1の信号増幅器44bは増幅機能を有するがアンダーシュート処理は行わない。処理系統2の信号増幅器44bは増幅機能を有すると共にアンダーシュート処理を行う。処理系統3については後述する。   The processing system 2 is not suitable for detecting the distance of a plurality of objects included in the row subject by the undershoot process and the LPF 44d, but can detect the distance to the object even when the reflected signal is extremely weak. The signal amplifier 44b of the processing system 1 and the signal amplifier 44b of the processing system 2 have different resistance and capacitor values. The signal amplifier 44b of the processing system 1 has an amplifying function but does not perform undershoot processing. The signal amplifier 44b of the processing system 2 has an amplifying function and performs an undershoot process. The processing system 3 will be described later.

なお、アンダーシュートなしとは、全くアンダーシュートがないことまでは必要なく、反射信号がわずかにアンダーシュートすることも含んでよい。すなわち、隊列被写体の各物体の分離が可能であればわずかなアンダーシュートは許容される。   It should be noted that “without undershoot” is not necessary until there is no undershoot at all, and may include a slight undershoot of the reflected signal. In other words, if it is possible to separate the objects of the row subject, a slight undershoot is allowed.

時間計測部45は、3つの処理系統の信号(デジタル信号になっている)のそれぞれから物体までの時間を測定する。したがって、遠方の物体(反射信号が極めて微弱な物体)及び隊列被写体の各物体までの時間(距離)を測定できる。   The time measuring unit 45 measures the time from each of the signals (digital signals) of the three processing systems to the object. Therefore, it is possible to measure the time (distance) to a distant object (an object whose reflected signal is extremely weak) and each of the platoon subjects.

<動作手順>
図29は、ステレオ画像演算部とレーザ信号処理部による視差画像生成処理の流れを示すフローチャートである。図29に示すフローチャートは、レーザレーダ測距部120によりレーザ光が照射された照射位置に対応する1の基準画素領域pについての視差を演算する処理を示したものである。したがって、視差画像の生成にあたり、ステレオ画像演算部250とレーザ信号処理部240は同様の各基準画素領域について図29に示すフローチャートを実行する。
<Operation procedure>
FIG. 29 is a flowchart illustrating the flow of a parallax image generation process performed by the stereo image calculation unit and the laser signal processing unit. The flowchart illustrated in FIG. 29 illustrates a process of calculating a parallax for one reference pixel region p corresponding to an irradiation position where the laser beam is irradiated by the laser radar distance measurement unit 120. Therefore, when generating a parallax image, the stereo image calculation unit 250 and the laser signal processing unit 240 execute the flowchart shown in FIG. 29 for each similar reference pixel region.

まず、ステレオ画像演算部の処理について説明する。基準画像取得部801は、基準画像Ibを取得し、基準画素領域pを抽出する(ステップS−10)。   First, the processing of the stereo image calculation unit will be described. The reference image acquisition unit 801 acquires the reference image Ib and extracts the reference pixel area p (Step S-10).

次に、コストC計算部803は、比較画像取得部802にて取得された比較画像Ia内のシフト量dの位置における画素領域511の画素値と、基準画素領域pの画素値とに基づいて、コストC(p,d)を算出する(ステップS−20)。   Next, the cost C calculation unit 803 calculates the pixel value of the pixel region 511 at the position of the shift amount d in the comparison image Ia acquired by the comparison image acquisition unit 802 and the pixel value of the reference pixel region p. , And calculate the cost C (p, d) (step S-20).

次に、第1経路コスト計算部1001は、コストC(p,d)に基づいて、各第1経路コストLr(p,d)を算出する(ステップS−30)。   Next, the first route cost calculation unit 1001 calculates each first route cost Lr (p, d) based on the cost C (p, d) (step S-30).

第1合成コストS計算部1002は、各第1経路コストLr(p,d)に基づいて、第1合成コストS(p,d)を算出する(ステップS−40)。   The first combined cost S calculation unit 1002 calculates the first combined cost S (p, d) based on each first route cost Lr (p, d) (Step S-40).

第1視差演算部713は、第1合成コストS(p,d)が最小となるシフト量(第1視差)を算出する(ステップS−50)。これにより、第1視差演算部713は、比較画像Iaより対応画素領域を抽出すると共に、抽出した対応画素領域と基準画素領域pとの視差(第1視差)の演算結果を取得する。   The first parallax calculation unit 713 calculates a shift amount (first parallax) at which the first combined cost S (p, d) is minimized (Step S-50). Accordingly, the first parallax calculation unit 713 extracts the corresponding pixel region from the comparison image Ia and acquires the calculation result of the parallax (first parallax) between the extracted corresponding pixel region and the reference pixel region p.

なお、より高速又はラフに計算するためにブロックマッチングだけで済ませてもよい(ステップS−20までの処理で留める)。あるいは、高速又はラフに計算するために機械学習(ディープラーニング)を用いてもよい。   It should be noted that only the block matching may be sufficient to calculate at higher speed or rougher (the process up to step S-20 is stopped). Alternatively, machine learning (deep learning) may be used to calculate at high speed or roughly.

範囲決定部714は、レーザ信号処理部240がレーザ受光信号を処理する際の処理範囲を、視差の演算結果に基づいて決定する(ステップS−60)。また、範囲決定部714は、決定した処理範囲を、レーザ信号処理部240に通知する。   The range determining unit 714 determines a processing range when the laser signal processing unit 240 processes the laser light reception signal based on the calculation result of the parallax (Step S-60). Further, the range determining unit 714 notifies the laser signal processing unit 240 of the determined processing range.

これにより、レーザ信号処理部240は、物体での反射を示す信号を検出し、距離情報Zlを算出する。   Thereby, the laser signal processing unit 240 detects the signal indicating the reflection on the object, and calculates the distance information Zl.

次に、コストC計算部1403は、比較画像取得部1402にて取得された比較画像Ia内のシフト量dの位置における画素領域511の画素値と、基準画素領域pの画素値とに基づいて、コストC(p,d)を算出する(ステップS−70)。   Next, the cost C calculation unit 1403 calculates the pixel value of the pixel region 511 at the position of the shift amount d in the comparison image Ia acquired by the comparison image acquisition unit 1402 and the pixel value of the reference pixel region p. , And calculate the cost C (p, d) (step S-70).

コストC調整部1404は、算出されたコストC(p,d)を信頼度Q(p)に基づいて調整し、調整後のコストC'(p,d)を算出する(ステップS−80)。   The cost C adjustment unit 1404 adjusts the calculated cost C (p, d) based on the reliability Q (p), and calculates the adjusted cost C ′ (p, d) (Step S-80). .

距離情報取得部1411は、基準画素領域pの位置に対応する実空間の物体までの距離を示す距離情報Zlを、レーザ信号処理部240より取得する(ステップS−90)。   The distance information acquisition unit 1411 acquires, from the laser signal processing unit 240, distance information Zl indicating the distance to the object in the real space corresponding to the position of the reference pixel area p (step S-90).

コストCl計算部1412は、距離情報取得部1411において取得された距離情報Zlに基づいて、コストClを算出する(ステップS−100)。   The cost Cl calculation unit 1412 calculates a cost Cl based on the distance information Zl acquired by the distance information acquisition unit 1411 (step S-100).

重み付け加算部1420は、コストC調整部1404において調整された調整後のコストC'(p,d)と、コストCl計算部1412において算出されたコストCl(p,d)とを重み付け加算し、重み付けコストを算出する(ステップS−110)。   The weighting and adding unit 1420 weights and adds the adjusted cost C ′ (p, d) adjusted by the cost C adjusting unit 1404 and the cost Cl (p, d) calculated by the cost Cl calculating unit 1412, The weighting cost is calculated (step S-110).

第2経路コスト計算部1501は、重み付けコストを用いて各第2経路コストLr'(p、d)を算出する(ステップS−120)。   The second route cost calculation unit 1501 calculates each second route cost Lr ′ (p, d) using the weighted cost (Step S-120).

第2合成コストS'計算部1502は、各第2経路コストLr'(p,d)に基づいて、第2合成コストS'(p,d)を算出する(ステップS−130)。   The second combined cost S ′ calculation unit 1502 calculates a second combined cost S ′ (p, d) based on each second route cost Lr ′ (p, d) (Step S-130).

第2視差演算部723は、第2合成コストS'(p,d)が最小となるシフト量(dmin)を算出することで、比較画像Iaより対応画素領域を抽出する(ステップS−140)。これにより、第2視差演算部723は、抽出した対応画素領域と基準画素領域pとの視差(第2視差)の再演算結果を取得する。   The second parallax calculation unit 723 extracts a corresponding pixel region from the comparison image Ia by calculating a shift amount (dmin) that minimizes the second synthesis cost S ′ (p, d) (Step S-140). . Thereby, the second parallax calculation unit 723 obtains a recalculation result of the parallax (second parallax) between the extracted corresponding pixel region and the reference pixel region p.

次に、ステレオ画像演算部250の処理について説明する。まず、照射光学系20がレーザ光のパルスを照射する(ステップL−10)。受光光学系30が反射信号を受光する(ステップL−20)。   Next, the processing of the stereo image calculation unit 250 will be described. First, the irradiation optical system 20 irradiates a pulse of a laser beam (step L-10). The light receiving optical system 30 receives the reflected signal (Step L-20).

次に、PD出力検出部44の処理系統1と2が並行して反射信号を処理する。処理系統1の電流電圧変換器44aは反射信号の電流を電圧に変換し、信号増幅器44bが反射信号を増幅する(ステップL−30)。処理系統1の信号増幅器44bはアンダーシュートを起こさせないか又は起こさせてもわずかである。   Next, the processing systems 1 and 2 of the PD output detection unit 44 process the reflected signal in parallel. The current-voltage converter 44a of the processing system 1 converts the current of the reflected signal into a voltage, and the signal amplifier 44b amplifies the reflected signal (Step L-30). The signal amplifier 44b of the processing system 1 does not cause the undershoot or causes only a slight undershoot.

処理系統2の電流電圧変換器44aは反射信号の電流を電圧に変換し、信号増幅器44bが反射信号を増幅すると共にアンダーシュートさせる(ステップL−40)。   The current-voltage converter 44a of the processing system 2 converts the current of the reflected signal into a voltage, and the signal amplifier 44b amplifies and undershoots the reflected signal (step L-40).

そして、LPF44dがアンダーシュート処理された反射信号にフィルタリング処理を施し高周波数成分を低減する(ステップL−50)。   The LPF 44d performs a filtering process on the undershoot-processed reflected signal to reduce high frequency components (step L-50).

次に、レーザ信号処理部240はステレオ画像演算部250から処理範囲を取得し、二値化回路44cが処理系統1と処理系統2の反射信号の処理範囲をそれぞれ二値化する(ステップL−60)。   Next, the laser signal processing unit 240 acquires the processing range from the stereo image calculation unit 250, and the binarization circuit 44c binarizes the processing ranges of the reflected signals of the processing system 1 and the processing system 2 (step L-). 60).

次に、時間計測部45は計測された時間を距離情報Z1に変換する(ステップL−70)。レーザ信号処理部240はこの距離情報Z1とレーザ光の照射方向をステレオ画像演算部250に送出する。   Next, the time measuring unit 45 converts the measured time into distance information Z1 (step L-70). The laser signal processing unit 240 sends the distance information Z1 and the irradiation direction of the laser light to the stereo image calculation unit 250.

なお、LiDARの検知結果を視差に反映させる方法については、図29に記載の方法以外の方法を採用してよい。これらについては図31,図32に説明する。   Note that a method other than the method described in FIG. 29 may be adopted as a method of reflecting the LiDAR detection result in the parallax. These will be described with reference to FIGS. 31 and 32.

<路面の凹凸、路肩の検出等>
処理系統3を用いた路面の凹凸、路肩の検出等について説明する。処理系統3では、アンダーシュートなしの反射信号がA/D変換回路44eに入力されている。このA/D変換回路44eは比較的遅い回路でよい。A/D変換回路44eでサンプリングしたデジタルデータにおいて、その大域的な傾きを見ることで測定制御部46は路面推定(路面の凹凸や傾きを検出する)を行う。局所的な山を見ることで、路肩や白線の検出が可能となる。
<Detection of road surface unevenness, road shoulder, etc.>
A description will be given of detection of road surface irregularities and road shoulders using the processing system 3. In the processing system 3, a reflected signal without undershoot is input to the A / D conversion circuit 44e. The A / D conversion circuit 44e may be a relatively slow circuit. By observing the global slope of the digital data sampled by the A / D conversion circuit 44e, the measurement control unit 46 performs road surface estimation (detects road surface unevenness and slope). Looking at a local mountain makes it possible to detect a road shoulder or a white line.

図30は、A/D変換回路44eにより変換した反射信号の大域的な解析を説明する図の一例である。図30(a)は測距装置100が検出する車両前方の状況を示し、図30(b)は図30(a)の状況で検出される反射信号を示す。図30(a)に示すように、測距装置100の前方には凹部分852、凸部分853、及び、物体854が存在する。レーザ光860は凹部分852、凸部分853、及び、物体854を含む縦長の形状で照射された。   FIG. 30 is an example of a diagram illustrating global analysis of a reflected signal converted by the A / D conversion circuit 44e. FIG. 30A shows a situation in front of the vehicle detected by the distance measuring apparatus 100, and FIG. 30B shows a reflected signal detected in the situation of FIG. As shown in FIG. 30A, a concave portion 852, a convex portion 853, and an object 854 exist in front of the distance measuring apparatus 100. The laser light 860 was irradiated in a vertically long shape including a concave portion 852, a convex portion 853, and an object 854.

図30(a)の反射信号について説明する。近くの路面ほど大きくレーザ光を反射するので、反射信号は立ち上がり部850aを有する。その後、時間と共に遠方の路面からの反射信号が受光されるが、遠方ほど反射信号が弱まるため、反射信号は式(3)より距離の2乗に反比例する傾き851aで減衰する。したがって、傾き851aに生じる凹凸は路面の凹凸や物体の存在を示唆する。   The reflected signal of FIG. 30A will be described. The closer the road surface, the more the laser light is reflected, so the reflected signal has a rising portion 850a. Thereafter, a reflected signal from a distant road surface is received with time, but the reflected signal is weakened as the distance increases, so the reflected signal attenuates with a gradient 851a that is inversely proportional to the square of the distance according to equation (3). Therefore, the unevenness generated on the slope 851a indicates the unevenness of the road surface or the presence of an object.

図30では、傾き851aに凹部分852a及び凸部分853aが確認される。路面が平らな場合、照射光は連続的に路面に当たるが、路面に凹部分852があると照射面が不連続に変化する。不連続点では反射信号が一瞬落ち込むため、反射信号の凹部分852aにより凹部分852があることが推定される。凸部分853aは、凸部ではLiDARに対する正対成分が大きくなり反射信号が大きくなるので路面が高くなっていることが推定される。すなわち、路面に凸部分853があると推定される。更に、反射信号が急激に大きくなる物体部分854aは、路面に物体854があると推定される。このように、A/D変換回路44eが路面を含む反射信号をデジタルデータに変換することで、測定制御部46は路面推定(路面の凹凸や傾きを検出する)を行うことができる。   In FIG. 30, a concave portion 852a and a convex portion 853a are confirmed at the inclination 851a. When the road surface is flat, the irradiation light continuously hits the road surface. However, when the road surface has the concave portion 852, the irradiation surface changes discontinuously. At the discontinuous point, the reflected signal drops for a moment, so it is estimated that there is a concave portion 852 due to the concave portion 852a of the reflected signal. The convex portion 853a is presumed to have a high road surface because the convex component has a large facing component to LiDAR and a large reflection signal. That is, it is estimated that there is a convex portion 853 on the road surface. Further, it is estimated that the object portion 854a in which the reflection signal sharply increases has the object 854 on the road surface. As described above, by the A / D conversion circuit 44e converting the reflection signal including the road surface into digital data, the measurement control unit 46 can perform the road surface estimation (detecting the unevenness and inclination of the road surface).

このような路面推定を行なうために、レーザレーダ測距部120はレーザを大口径にして、路面に広く当たるように照射する。レーザは大口径でよく、A/D変換回路44eも比較的遅いサンプリングレートのものでよいため、レーザを絞ることにかかるコストや、A/D変換回路にかかるコストも抑えることができるため、レーザレーダ測距部120のコスト増を抑制できる。   In order to perform such a road surface estimation, the laser radar distance measuring unit 120 irradiates the laser so as to have a large diameter and hit the road surface widely. Since the laser may have a large diameter and the A / D conversion circuit 44e may have a relatively low sampling rate, the cost for narrowing down the laser and the cost for the A / D conversion circuit can be reduced. An increase in the cost of the radar ranging unit 120 can be suppressed.

<LiDARの検知結果を視差に反映させる方法の他の例>
図31は、距離空間をベースにして視差を算出する方法を説明する図の一例である。
(1)図29のステップS−60で処理範囲を決定した後、レーザ信号処理部240は該当範囲に存在するLiDARのアナログ信号の山を人為的に大きくする。
(2)レーザ信号処理部240はアナログ信号を反転する。
(3)ステレオ画像演算部250は、ステレオ画像から算出された視差空間のコストC(p,d)を、距離空間のコストC(p、z)に変換する。
(4) ステレオ画像演算部250は、(2)のアナログ信号と(3)のコストC(p、z)を足し合わせた合成コストを得る。
<Another example of a method for reflecting the detection result of LiDAR in parallax>
FIG. 31 is an example of a diagram illustrating a method of calculating parallax based on a metric space.
(1) After determining the processing range in step S-60 in FIG. 29, the laser signal processing unit 240 artificially increases the peak of the LiDAR analog signal existing in the corresponding range.
(2) The laser signal processing unit 240 inverts the analog signal.
(3) The stereo image calculation unit 250 converts the cost C (p, d) of the parallax space calculated from the stereo image into the cost C (p, z) of the distance space.
(4) The stereo image calculation unit 250 obtains a synthesis cost obtained by adding the analog signal of (2) and the cost C (p, z) of (3).

合成コストの最小値を探すことで視差を得ることができる。   Parallax can be obtained by searching for the minimum value of the synthesis cost.

図32は、距離空間をベースにして視差を簡易的に算出する方法を説明する図の一例である。
(1)ステレオ画像演算部250は、ステレオ画像から算出された視差空間のコストC(p,d)を、距離空間のコストC(p,z)に変換する。
(2)レーザ信号処理部240は、図29のステップS60で処理範囲を決定した後、該当範囲のLiDARのアナログ信号のピーク部分を特定する。
(3)ステレオ画像演算部250は、ピーク部分に対応するコストC(p,z)のコスト値を予め定めた値だけ小さくして改変コストを得る。
FIG. 32 is an example of a diagram illustrating a method for simply calculating parallax based on a metric space.
(1) The stereo image calculation unit 250 converts the cost C (p, d) of the parallax space calculated from the stereo image into the cost C (p, z) of the distance space.
(2) After determining the processing range in step S60 in FIG. 29, the laser signal processing unit 240 specifies the peak portion of the LiDAR analog signal in the corresponding range.
(3) The stereo image calculation unit 250 reduces the cost value of the cost C (p, z) corresponding to the peak portion by a predetermined value to obtain the modification cost.

改変コストの最小値を探すことで、視差を得ることができる。   Parallax can be obtained by searching for the minimum value of the modification cost.

<まとめ>
以上説明したように、本実施形態の測距装置100は、ステレオカメラから得られる物体までの距離情報を用いて処理範囲を設定し、反射信号における着目領域を絞ることで、反射信号のノイズを物体として取ってしまうことを抑制しやすくなる。
<Summary>
As described above, the distance measuring apparatus 100 of the present embodiment sets the processing range using the distance information to the object obtained from the stereo camera, narrows the region of interest in the reflected signal, and reduces the noise of the reflected signal. It is easy to suppress taking as an object.

反射信号が外乱光などによるノイズと同程度以下になってしまうほど微弱であるため、処理範囲を絞っても物体に対応するピークを検出しにくくなる状況に対応するため、反射信号にアンダーシュートを意図的に発生させ、反射信号の周波数帯域とアンダーシュート幅の周波数帯域にあわせて設計したLPF又はBPFを通過させることで、反射信号のピークを強調できる(アンダーシュートにより信号強度を相対的に大きくできる)。したがって、「遠方の微弱信号の検出精度を向上させる」ことができる。   Since the reflected signal is so weak that it becomes less than the noise due to disturbance light, etc., it is difficult to detect the peak corresponding to the object even if the processing range is narrowed. By intentionally generating and passing through an LPF or BPF designed according to the frequency band of the reflected signal and the frequency band of the undershoot width, the peak of the reflected signal can be emphasized (the signal strength is relatively large due to the undershoot). it can). Therefore, it is possible to “improve the detection accuracy of a distant weak signal”.

また、アンダーシュートを意図的に発生させると、隊列被写体の複数の物体の分離が困難になるという不都合が生じる。これに対応するため、本実施形態の測距装置100は、反射信号にアンダーシュート処理を施す処理系統と、施さない処理系統を用意し、隊列被写体の複数の物体の分離を可能にすることができる。つまり、アンダーシュートありの反射信号は遠方の微弱信号の検出用として用い、アンダーシュートなしの反射信号は隊列被写体の複数の物体の距離を算出するために使用する。したがって、「隊列被写体の分離を可能としながら」「遠方の微弱信号の検出精度を向上させる」ことができる。   In addition, if the undershoot is intentionally generated, there is a disadvantage that it is difficult to separate a plurality of objects in the platoon subject. To cope with this, the distance measuring apparatus 100 of the present embodiment can prepare a processing system that performs undershoot processing on the reflected signal and a processing system that does not perform undershoot processing to enable separation of a plurality of objects in the platoon subject. it can. In other words, the reflected signal with the undershoot is used for detecting a distant weak signal, and the reflected signal without the undershoot is used for calculating the distance between a plurality of objects in the row. Therefore, it is possible to "improve the detection accuracy of a distant weak signal while enabling separation of the row subjects".

また、本実施形態の測距装置100は、大口径レーザを照射し、その反射信号の大域的な傾きを見ることによって、路面推定(路面の凹凸や傾き)を行い、局所的な山を見ることで路肩や白線の検出を行うことができる。   In addition, the distance measuring apparatus 100 according to the present embodiment irradiates a large-diameter laser, observes a global inclination of a reflected signal, performs road surface estimation (roughness and inclination of the road surface), and looks at a local mountain. Thus, the road shoulder and the white line can be detected.

大口径レーザを照射するので、レーザを絞ることに関するコストを抑えることができ、また路面推定に関しては比較的遅いサンプリングレートのA/D変換でよいため、A/D変換機のコストも抑えることができる。   A large-diameter laser beam is applied, so that the cost of narrowing down the laser can be reduced. Also, the road surface estimation requires A / D conversion at a relatively slow sampling rate, so the cost of the A / D converter can be reduced. it can.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
As described above, the best mode for carrying out the present invention has been described using the embodiment. However, the present invention is not limited to such embodiment at all, and various modifications may be made without departing from the gist of the present invention. And substitutions can be added.

上記実施形態では、画素領域についてコストCを算出する場合について説明したが、コストCの算出は、1画素ごとに行うように構成してもよい。つまり、上記実施形態に記載の"画素領域"には、1又は複数の画素が含まれるものとする。   In the above embodiment, the case where the cost C is calculated for the pixel area has been described. However, the calculation of the cost C may be performed for each pixel. That is, the “pixel region” described in the above embodiment includes one or more pixels.

また、上記実施形態では、ステレオカメラ部110とレーザレーダ測距部120とが一体的に構成される場合について示したが、ステレオカメラ部110とレーザレーダ測距部120とは、別体により構成されてもよい。   In the above embodiment, the case where the stereo camera unit 110 and the laser radar distance measuring unit 120 are integrally configured has been described. However, the stereo camera unit 110 and the laser radar distance measuring unit 120 are configured separately. May be done.

また、上記実施形態では、レーザ信号処理部240では主にアナログ信号からピークを取りだし、ステレオ画像演算部250ではデジタル信号を扱っていたが、受光素子235が反射信号を受光した直後にレーザ信号処理部240がデジタル信号に変換して、デジタル信号からピークを取り出してもよい。   In the above embodiment, the laser signal processing unit 240 mainly extracts the peak from the analog signal, and the stereo image calculation unit 250 handles the digital signal. However, the laser signal processing unit immediately executes the laser signal processing immediately after the light receiving element 235 receives the reflected signal. The unit 240 may convert the digital signal into a digital signal and extract a peak from the digital signal.

また、上記実施形態では、レーザ信号処理部240とステレオ画像演算部250が、専用の集積回路により構成されるものとして説明した。しかしながら、例えば、レーザ信号処理部240、ステレオ画像演算部250の機能を実現するソフトウェアのプログラムコードが記録された記憶媒体を情報処理装置が実行することで本実施形態の機能を実現してもよい。   In the above embodiment, the laser signal processing unit 240 and the stereo image calculation unit 250 have been described as being configured by a dedicated integrated circuit. However, for example, the functions of the present embodiment may be realized by the information processing apparatus executing a storage medium in which software program codes for realizing the functions of the laser signal processing unit 240 and the stereo image calculation unit 250 are recorded. .

また、上記実施形態では、レーザ信号処理部240により算出された距離情報を、ステレオ画像演算部250に入力し、視差の再演算に用いるものとして説明したが、視差の再演算以外の用途に用いてもよい。   In the above embodiment, the distance information calculated by the laser signal processing unit 240 is input to the stereo image calculation unit 250 and used for recalculation of parallax, but is used for purposes other than recalculation of parallax. You may.

また、上記実施形態では、測距装置100を車両140に取り付ける場合について説明した。しかしながら、測距装置100の取り付け先は車両140に限定されず、バイク、自転車、車椅子、農業用の耕運機等であってもよい。あるいは、自律移動ロボット等の移動体であってもよい。あるいは、ドローンなどの飛行体でもよい。あるいは、FA(Factory Automation)において固定設置される工業用ロボット等であってもよい。   In the above embodiment, the case where the distance measuring apparatus 100 is attached to the vehicle 140 has been described. However, the attachment destination of the distance measuring apparatus 100 is not limited to the vehicle 140, and may be a motorcycle, a bicycle, a wheelchair, a cultivator for agriculture, or the like. Alternatively, a moving body such as an autonomous mobile robot may be used. Alternatively, a flying object such as a drone may be used. Alternatively, an industrial robot or the like fixedly installed in an FA (Factory Automation) may be used.

なお、ステレオ画像演算部250は画像処理部の一例であり、照射系10は照射部の一例であり、時間計測用PD42は受光部の一例であり、処理系統2の信号増幅器44bは第1の処理回路の一例であり、LPF44dはフィルタ回路の一例であり、二値化回路44cは取得手段の一例であり、時間計測部45は変換手段の一例である。処理系統1の信号増幅器44bは第2の処理回路の一例であり、第2視差演算部723は再演算手段の一例である。範囲決定部714が処理範囲を決定するための距離は第1の距離情報の一例であり、測定制御部46が算出する距離は第2の距離情報の一例である。コストCl計算部1412が算出するコストClは第1のコストの一例であり、コストC計算部1403が算出するコストC(p,d)は第2のコストの一例であり、重み付け加算部1420が算出する重み付けコストは第3のコストの一例である。   Note that the stereo image calculation unit 250 is an example of an image processing unit, the irradiation system 10 is an example of an irradiation unit, the time measurement PD 42 is an example of a light receiving unit, and the signal amplifier 44b of the processing system 2 is the first The LPF 44d is an example of a filter circuit, the binarization circuit 44c is an example of an acquisition unit, and the time measurement unit 45 is an example of a conversion unit. The signal amplifier 44b of the processing system 1 is an example of a second processing circuit, and the second parallax calculating unit 723 is an example of a recalculating unit. The distance for the range determination unit 714 to determine the processing range is an example of first distance information, and the distance calculated by the measurement control unit 46 is an example of second distance information. The cost Cl calculated by the cost Cl calculation unit 1412 is an example of a first cost, the cost C (p, d) calculated by the cost C calculation unit 1403 is an example of a second cost, and the weighting addition unit 1420 The calculated weighting cost is an example of a third cost.

1〜3 処理系統
44 PD出力検出部
44a 電流電圧変換器
44b 信号増幅器
44c 二値化回路
44d LPF
45 時間計測部
46 測定制御部
100 測距装置
110 ステレオカメラ部
120 レーザレーダ測距部
140 車両
190 ECU
240 レーザ信号処理部
250 ステレオ画像演算部
1-3 Processing system 44 PD output detector 44a Current-voltage converter 44b Signal amplifier 44c Binarization circuit 44d LPF
45 Time measuring unit 46 Measurement control unit 100 Distance measuring device 110 Stereo camera unit 120 Laser radar distance measuring unit 140 Vehicle 190 ECU
240 laser signal processing unit 250 stereo image calculation unit

特開2017−062169号公報JP 2017-062169 A

Claims (10)

レーザ光を照射する照射部と、
前記レーザ光が物体で反射した反射信号を受光する受光部と、
前記受光部が受光した前記反射信号にアンダーシュート処理を施す第1の処理回路と、
前記第1の処理回路によりアンダーシュート処理が施された前記反射信号に、前記物体を表すピークを強調する処理を施すフィルタ回路と、
を有することを特徴とする測距装置。
An irradiation unit that irradiates a laser beam;
A light receiving unit that receives a reflected signal of the laser light reflected by the object,
A first processing circuit that performs undershoot processing on the reflected signal received by the light receiving unit;
A filter circuit that performs a process of enhancing a peak representing the object on the reflection signal on which the undershoot process has been performed by the first processing circuit;
A distance measuring device comprising:
複数の撮像装置が得た画像から第1の距離情報を算出する画像処理部を更に備え、
前記画像処理部が前記第1の距離情報に基づいて決定した前記反射信号の処理範囲から、前記ピークを取得する取得手段と、
前記照射部が前記レーザ光を照射してから前記取得手段が前記ピークを検出するまでの時間を前記物体までの第2の距離情報に変換する変換手段と、
有することを特徴とする請求項1に記載の測距装置。
An image processing unit that calculates first distance information from images obtained by the plurality of imaging devices,
An acquisition unit configured to acquire the peak from the processing range of the reflection signal determined by the image processing unit based on the first distance information;
Conversion means for converting the time from when the irradiation unit irradiates the laser beam to when the acquisition means detects the peak into second distance information to the object,
The distance measuring apparatus according to claim 1, further comprising:
前記フィルタ回路は、ローパスフィルタ又はバンドパスフィルタであることを特徴とする請求項1又は2に記載の測距装置。   The range finder according to claim 1, wherein the filter circuit is a low-pass filter or a band-pass filter. アンダーシュート部分に対応する周波数をf_u、反射信号のピークに対応する周波数をf_rとし、高周波数側のカットオフ周波数をf_cH、低周波数側のカットオフ周波数をf_cLとした場合、
前記フィルタ回路はf_cL < f_u < f_r < f_cHの関係を満たすフィルタリング処理を行うことを特徴とする請求項1〜3のいずれか1項に記載の測距装置。
When the frequency corresponding to the undershoot portion is f_u, the frequency corresponding to the peak of the reflected signal is f_r, the cutoff frequency on the high frequency side is f_cH, and the cutoff frequency on the low frequency side is f_cL,
The distance measuring apparatus according to claim 1, wherein the filter circuit performs a filtering process that satisfies a relationship of f_cL <f_u <f_r <f_cH.
更に、前記受光部が受光した反射信号にアンダーシュート処理を施さない第2の処理回路、を有し、
前記取得手段は、前記第1の処理回路がアンダーシュート処理を施した前記反射信号の前記処理範囲から前記ピークとアンダーシュート部分を取得し、
更に、前記第2の処理回路がアンダーシュート処理を施さない前記反射信号の前記処理範囲から前記物体を表すピークを取得することを特徴とする請求項2に記載の測距装置。
A second processing circuit that does not perform undershoot processing on the reflected signal received by the light receiving unit;
The acquisition unit acquires the peak and the undershoot portion from the processing range of the reflection signal on which the first processing circuit has performed the undershoot process;
3. The distance measuring apparatus according to claim 2, wherein the second processing circuit acquires a peak representing the object from the processing range of the reflection signal on which the undershoot processing is not performed.
前記変換手段により変換された前記第2の距離情報に基づいて、複数の撮像装置が得た画像の視差を再演算する再演算手段を更に有することを特徴とする請求項5に記載の測距装置。   6. The distance measurement according to claim 5, further comprising a recalculating unit that recalculates parallax of images obtained by a plurality of imaging devices based on the second distance information converted by the converting unit. apparatus. 前記画像処理部は、前記変換手段により算出された前記第2の距離情報を第1のコストに変換し、
前記複数の撮像装置が得た複数の画像のブロックマッチングにより得た第2のコストを算出し、前記第1のコストと前記第2のコストを重み付けして算出した第3のコストから距離を算出することを特徴とする請求項6に記載の測距装置。
The image processing unit converts the second distance information calculated by the conversion unit into a first cost,
Calculating a second cost obtained by block matching of the plurality of images obtained by the plurality of imaging devices, and calculating a distance from a third cost calculated by weighting the first cost and the second cost; The distance measuring apparatus according to claim 6, wherein the distance measurement is performed.
請求項1〜7のいずれか1項に記載の測距装置を有する移動体。   A moving object comprising the distance measuring device according to claim 1. 照射部がレーザ光を照射するステップと、
受光部が、前記レーザ光が物体で反射した反射信号を受光するステップと、
第1の処理回路が、前記受光部が受光した反射信号にアンダーシュート処理を施すステップと、
フィルタ回路が、前記第1の処理回路によりアンダーシュート処理が施された前記反射信号に、前記物体を表すピークを強調する処理を施すステップと、
を有することを特徴とする測距方法。
Irradiating a laser beam by the irradiating unit;
A light receiving unit for receiving a reflected signal of the laser beam reflected by the object,
A first processing circuit performing an undershoot process on the reflected signal received by the light receiving unit;
A filter circuit for performing a process of enhancing a peak representing the object on the reflected signal on which the undershoot process has been performed by the first processing circuit;
A distance measuring method comprising:
レーザ光を照射する照射部と、
前記レーザ光が物体で反射した反射信号を受光する受光部と、を有する測距装置を、
前記受光部が受光した反射信号にアンダーシュート処理を施す第1の処理回路と、
前記第1の処理回路によりアンダーシュート処理が施された前記反射信号に、前記物体を表すピークを強調する処理を施すフィルタ回路と、
として機能させるためのプログラム。
An irradiation unit that irradiates a laser beam;
A light receiving unit that receives a reflected signal of the laser light reflected by the object,
A first processing circuit that performs undershoot processing on the reflected signal received by the light receiving unit;
A filter circuit that performs a process of enhancing a peak representing the object on the reflection signal on which the undershoot process has been performed by the first processing circuit;
Program to function as
JP2018142993A 2018-07-30 2018-07-30 Ranging device, ranging method, program, moving body Active JP7131180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142993A JP7131180B2 (en) 2018-07-30 2018-07-30 Ranging device, ranging method, program, moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142993A JP7131180B2 (en) 2018-07-30 2018-07-30 Ranging device, ranging method, program, moving body

Publications (2)

Publication Number Publication Date
JP2020020612A true JP2020020612A (en) 2020-02-06
JP7131180B2 JP7131180B2 (en) 2022-09-06

Family

ID=69588401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142993A Active JP7131180B2 (en) 2018-07-30 2018-07-30 Ranging device, ranging method, program, moving body

Country Status (1)

Country Link
JP (1) JP7131180B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308487A (en) * 2020-02-21 2020-06-19 南京大学 SPAD array suitable for long-distance measurement
CN111965626A (en) * 2020-08-11 2020-11-20 上海禾赛科技股份有限公司 Echo detection and correction method and device for laser radar and environment sensing system
WO2021210415A1 (en) * 2020-04-15 2021-10-21 株式会社デンソー Optical ranging device
WO2022054422A1 (en) * 2020-09-10 2022-03-17 株式会社日立製作所 Obstacle detection device, obstacle detection system, and obstacle detection method
JP7430886B2 (en) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 Distance measuring device, laser radar and mobile robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09159765A (en) * 1995-12-08 1997-06-20 Nissan Motor Co Ltd Radar device for vehicle
JP2007093210A (en) * 2005-09-26 2007-04-12 Topcon Corp Survey system and survey method
JP2014137374A (en) * 2013-01-15 2014-07-28 Sick Ag Distance measuring photoelectric sensor and object distance measuring method
JP2017010095A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, image processing program, and recording medium
JP2017062169A (en) * 2015-09-25 2017-03-30 株式会社リコー Circuit device, light detection device, object detection device, sensing device, moving body device, light detection method and object detection method
JP2017156306A (en) * 2016-03-04 2017-09-07 株式会社リコー Distance sensor, travelling body and three-dimensional measurement device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09159765A (en) * 1995-12-08 1997-06-20 Nissan Motor Co Ltd Radar device for vehicle
JP2007093210A (en) * 2005-09-26 2007-04-12 Topcon Corp Survey system and survey method
JP2014137374A (en) * 2013-01-15 2014-07-28 Sick Ag Distance measuring photoelectric sensor and object distance measuring method
JP2017010095A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, image processing program, and recording medium
JP2017062169A (en) * 2015-09-25 2017-03-30 株式会社リコー Circuit device, light detection device, object detection device, sensing device, moving body device, light detection method and object detection method
JP2017156306A (en) * 2016-03-04 2017-09-07 株式会社リコー Distance sensor, travelling body and three-dimensional measurement device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308487A (en) * 2020-02-21 2020-06-19 南京大学 SPAD array suitable for long-distance measurement
CN111308487B (en) * 2020-02-21 2022-03-15 南京大学 SPAD array suitable for long-distance measurement
WO2021210415A1 (en) * 2020-04-15 2021-10-21 株式会社デンソー Optical ranging device
JP2021169944A (en) * 2020-04-15 2021-10-28 株式会社デンソー Optical ranging device
JP7306310B2 (en) 2020-04-15 2023-07-11 株式会社デンソー optical rangefinder
CN111965626A (en) * 2020-08-11 2020-11-20 上海禾赛科技股份有限公司 Echo detection and correction method and device for laser radar and environment sensing system
CN111965626B (en) * 2020-08-11 2023-03-10 上海禾赛科技有限公司 Echo detection and correction method and device for laser radar and environment sensing system
WO2022054422A1 (en) * 2020-09-10 2022-03-17 株式会社日立製作所 Obstacle detection device, obstacle detection system, and obstacle detection method
JP7389729B2 (en) 2020-09-10 2023-11-30 株式会社日立製作所 Obstacle detection device, obstacle detection system and obstacle detection method
JP7430886B2 (en) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 Distance measuring device, laser radar and mobile robot

Also Published As

Publication number Publication date
JP7131180B2 (en) 2022-09-06

Similar Documents

Publication Publication Date Title
JP7131180B2 (en) Ranging device, ranging method, program, moving body
KR101937777B1 (en) Lidar device and method for measuring distance using the same
EP3588141B1 (en) Distance-measuring apparatus, mobile object, distance-measuring method, and distance-measuring system
US10473770B1 (en) Multi-pulse fusion analysis for LiDAR ranging
JP2018119986A (en) Optical distance meter without multiple-view scanner under bright circumference background light
KR20220145845A (en) Noise Filtering Systems and Methods for Solid State LiDAR
US20210333371A1 (en) Lidar system with fog detection and adaptive response
CN110285788B (en) ToF camera and design method of diffractive optical element
EP3882659A1 (en) Method of calculating distance-correction data, range-finding device, and mobile object
EP3279691B1 (en) Rangefinder based on parallax calculation
JP7255259B2 (en) detector, rangefinder, time measurement method, program, moving object
WO2020166609A1 (en) Optical ranging device
CN113466836A (en) Distance measurement method and device and laser radar
CN115702364A (en) Radar system, mobile equipment and radar detection method
EP3276576B1 (en) Disparity estimation by fusion of range data and stereo data
US20230221437A1 (en) Application specific integrated circuits for lidar sensor and multi-type sensor systems
US11486984B2 (en) Three-dimensional light detection and ranging system using hybrid TDC and ADC receiver
US8805075B2 (en) Method and apparatus for identifying a vibrometry spectrum in imaging applications
WO2020107250A1 (en) Laser receiving circuit, distance measurement device, and mobile platform
WO2022132608A1 (en) Adjusting lidar parameters based on environmental conditions
KR20190071998A (en) Lidar apparatus for vehicle
WO2020113360A1 (en) Sampling circuit, sampling method, ranging apparatus and mobile platform
JP2020148747A (en) Object detection device
JP6470658B2 (en) Laser measurement system and laser measurement method
KR20220107060A (en) Lidar with photon resolution detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7131180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151