JP2019128350A - Image processing method, image processing device, on-vehicle device, moving body and system - Google Patents

Image processing method, image processing device, on-vehicle device, moving body and system Download PDF

Info

Publication number
JP2019128350A
JP2019128350A JP2018243505A JP2018243505A JP2019128350A JP 2019128350 A JP2019128350 A JP 2019128350A JP 2018243505 A JP2018243505 A JP 2018243505A JP 2018243505 A JP2018243505 A JP 2018243505A JP 2019128350 A JP2019128350 A JP 2019128350A
Authority
JP
Japan
Prior art keywords
distance
image
evaluation value
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018243505A
Other languages
Japanese (ja)
Other versions
JP7176406B2 (en
Inventor
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
横田 聡一郎
Soichiro Yokota
聡一郎 横田
賢一郎 齊所
Kenichiro Saisho
賢一郎 齊所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP19152873.6A priority Critical patent/EP3514759A1/en
Priority to US16/253,839 priority patent/US10891751B2/en
Publication of JP2019128350A publication Critical patent/JP2019128350A/en
Application granted granted Critical
Publication of JP7176406B2 publication Critical patent/JP7176406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a range-finding method that can integrate range-finding methods, making use of respective advantages of the range-finding methods more than a conventional way.SOLUTION: An image processing method, which generates a distance image for measuring a distance to an object, has the steps of: detecting, by a range-finding unit 110, distance information to an object; and conducting, by an image processing unit 120, integration processing of the distance information with respect to the matching evaluation value of the pixel corresponding to a location in which the object having the distance information detected by the range-finding unit exists of a pixel including a matching evaluation value of a stereo image, and generating the distance image, in which the image processing unit is configured to conduct the integration processing before generating the distance information from the matching evaluation value.SELECTED DRAWING: Figure 4

Description

本発明は、測距方法、測距装置、車載装置、移動体、及びシステムに関する。   The present invention relates to a distance measuring method, a distance measuring apparatus, an in-vehicle apparatus, a moving body, and a system.

従来からステレオカメラにおいて視差値を画素ごとに計算する視差計算アルゴリズムとして、特徴点のブロックマッチング方式や、SGM(Semi−Global−Matching)伝播方式などが知られている。これらの方式は、左右の画像の特徴点が探索される際の視差ごとにコストを算出する方式であり、探索視差空間においてコスト最小を与える視差値を整数視差として得て、所定の算出方法で推定されたサブピクセル視差を含む視差dを算出し、視差dと距離Zの対応式(Z=BF/d)により各画素に対応する距離を計算する。いわば視差空間にコストを投票する方式と言える(Bはカメラ間距離、Fは焦点距離)。   Conventionally, as a parallax calculation algorithm for calculating a parallax value for each pixel in a stereo camera, a block matching method of feature points, a SGM (Semi-Global-Matching) propagation method, and the like are known. These methods are methods for calculating the cost for each parallax when the feature points of the left and right images are searched, obtain the parallax value giving the minimum cost in the search parallax space as integer parallax, and use a predetermined calculation method. The parallax d including the estimated sub-pixel parallax is calculated, and the distance corresponding to each pixel is calculated by the correspondence equation (Z = BF / d) of the parallax d and the distance Z. In other words, it can be said that the cost is cast in the parallax space (B is the distance between cameras, and F is the focal length).

これらの従来型の視差空間コスト投票方式では、整数視差が小さい(すなわち距離Zが大きい)遠方領域では、距離分解能を確保することが難しいことが知られている。このため、遠方領域では視差計算結果のばらつき(分散)が大きく、測距値のばらつきも大きくなる傾向がある。   In these conventional parallax space cost voting methods, it is known that it is difficult to ensure distance resolution in a far region where integer parallax is small (that is, the distance Z is large). Therefore, in the far area, the variation (dispersion) of the parallax calculation result tends to be large, and the variation in the distance measurement value also tends to be large.

しかしながら、例えば測距システムが車載されることを考慮すると、自動運転に代表されるように遠方での測距性能が要求される傾向が高まっている。そこで、空間分解能は低いが距離分解能は高いLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)を用いて、ステレオカメラ(空間分解能は高いが遠方距離分解能が低い)とLIDARの測定結果を統合(これをフュージョンと呼ぶ場合がある)する試みが知られている。統合によりステレオカメラとLIDARのそれぞれの測定原理の限界を超えるセンサを開発できる。すなわち、遠方でも測距値分散が小さくかつ高分解能な距離画像を出力できる可能性があり、例えば、従来よりも、高分解能な測距、物体測距値の低分散化、不連続面の分離、及び、環境ロバスト性の向上等が可能になることが期待される。   However, in consideration of the fact that a distance measuring system is mounted on a car, for example, there is an increasing tendency that distance measuring performance at a distance is required as represented by automatic driving. Therefore, LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) with low spatial resolution but high distance resolution is used to integrate the measurement results of the stereo camera (high spatial resolution but low far-distance resolution) and LIDAR ( Attempts to do this (sometimes called fusion) are known. Integration allows the development of sensors that exceed the limits of the stereo camera and LIDAR measurement principles. That is, there is a possibility that a distance image with small distance dispersion and high resolution can be output even at long distances. For example, distance resolution higher than before, dispersion of object distance measurement low, separation of discontinuous surface And, it is expected that improvement of environmental robustness etc. becomes possible.

LIDARとステレオカメラの測定結果の統合としてステレオカメラの距離画像にLIDARの距離情報を関連付ける方式がある(例えば、特許文献1参照。)。特許文献1には、テクスチャの少ない画像領域の視差画像の濃度をLIDARの距離情報を使って増加させるフュージョン方法が開示されている。   There is a method of associating LIDAR distance information with a distance image of a stereo camera as integration of measurement results of LIDAR and stereo camera (see, for example, Patent Document 1). Patent Document 1 discloses a fusion method of increasing the density of a parallax image of an image region with few textures using distance information of LIDAR.

しかしながら、特許文献1に開示された技術では、それぞれの測距方式の利点を活かして統合しているとは言えないおそれがあるという問題がある。従来は、ステレオカメラがブロックマッチング等で距離画像を出力した後に、LIDARが測定する距離情報を後発的に追加する統合方法が一般的であった。この統合方法では、遠方を撮像したステレオカメラの距離画像にそもそも多くの誤差が含まれているため、LIDARの距離情報を加えても精度の向上に限界があった。   However, the technology disclosed in Patent Document 1 has a problem that it may not be possible to say that integration is performed by taking advantage of the respective ranging methods. Conventionally, after the stereo camera outputs a distance image by block matching or the like, an integration method is generally used in which the distance information measured by LIDAR is added later. In this integrated method, since many errors are originally included in the distance image of the stereo camera which imaged distant, even if it added the distance information of LIDAR, there was a limit in accuracy improvement.

すなわち、空間分解能は低いが距離分解能は高いLIDARと空間分解能は高いが遠方距離分解能が低いステレオカメラとの統合が十分でなく、互いの利点を活かしているとまではいえない可能性がある。   That is, LIDAR with a low spatial resolution but a high distance resolution and a stereo camera with a high spatial resolution but a low far-distance resolution are not sufficiently integrated, and it may not be possible to take advantage of each other's advantages.

本発明は、上記課題に鑑み、それぞれの測距方式の利点を従来よりも活かして統合できる測距方法を提供することを目的とする。   An object of the present invention is to provide a distance measuring method which can be integrated by utilizing the advantages of the respective distance measuring methods in comparison with the prior art.

上記課題に鑑み、本発明は、対象物との距離を測定するための距離画像を生成する画像処理方法であって、測距部が、対象物との距離情報を検出するステップと、ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、画像処理部が、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成するステップと、を有し、前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行うことを特徴とする。   In view of the above problems, the present invention is an image processing method for generating a distance image for measuring a distance to an object, the distance measuring unit detecting distance information to the object, and a stereo image Among the pixels including the matching evaluation value, the image processing unit detects the matching evaluation value of the pixel corresponding to the position at which the object for which the distance information is detected by the distance measuring unit, and the distance measuring unit detects And a step of generating the distance image by integrating the distance information, wherein the image processing unit performs the integration process before generating the distance image from the matching evaluation value. .

少なくとも遠方領域の距離精度が向上した測距方法を提供することができる。   A distance measuring method with improved distance accuracy in at least a far region can be provided.

LIDARとステレオカメラの測距性能について説明する図の一例である。It is an example of the figure explaining the ranging performance of a LIDAR and a stereo camera. 距離分解能と空間分解能を説明する図の一例である。It is an example of the figure explaining distance resolution and spatial resolution. 一般的な視差空間を用いた場合に得られる距離Zを説明する図の一例である。It is an example of the figure explaining the distance Z obtained when a general parallax space is used. LIDARの距離情報とステレオカメラの距離画像の従来の統合方法を説明する図の一例である。It is an example of the figure explaining the conventional integration method of the distance information of LIDAR and the distance image of a stereo camera. 本実施形態におけるLIDARの距離情報とステレオカメラの距離画像の統合方法を説明する図の一例である。It is an example of the figure explaining the integration method of the distance information of LIDAR and the distance image of a stereo camera in this embodiment. 移動体の一例である自動車に搭載された測距システムを示す図の一例である。It is an example of the figure which shows the ranging system mounted in the motor vehicle which is an example of a mobile body. レーザレーダ測距部とステレオ画像演算部が別々に構成された測距システムの一例を示す図である。It is a figure which shows an example of the ranging system with which the laser radar ranging part and the stereo image calculating part were comprised separately. レーザレーダ測距部によるレーザ光の照射範囲について説明する図の一例である。It is an example of the figure explaining the irradiation range of the laser beam by the laser radar ranging part. ステレオ画像演算部によるステレオ画像の撮像範囲を説明するための図である。It is a figure for demonstrating the imaging range of the stereo image by a stereo image calculating part. 単眼カメラからステレオ画像を生成する方法を説明する図の一例である。It is an example of the figure explaining the method to produce | generate a stereo image from a monocular camera. レーザレーダ測距部によるレーザ光の照射位置とステレオ画像演算部により撮像されたステレオ画像(基準画像)の画素位置との関係について説明する図の一例である。It is an example of a figure explaining the relationship between the irradiation position of the laser beam by a laser radar ranging part, and the pixel position of the stereo image (reference image) imaged by the stereo image calculating part. レーザレーダ測距部の機能構成図の一例である。It is an example of the functional block diagram of a laser radar ranging part. ステレオ画像演算部の機能をブロック状に示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the function of a stereo image calculating part in block form. 右カメラにより撮像された基準画像と、左カメラにより撮像された比較画像における、注目している画素p=(Px3,Py5)のコストとして、SADを算出する例を示した図である。It is the figure which showed the example which calculates SAD as a cost of the pixel p = (Px3, Py5) which is focused in the reference | standard image imaged with the right camera, and the comparison image imaged with the left camera. ある注目画素の視差ごとのコストC(p,d)の一例を示す図である。It is a figure which shows an example of cost C (p, d) for every parallax of a certain attention pixel. SGM伝播方式を用いて伝播コストLrを算出する処理を模式的に示した図である。It is the figure which showed typically the process which calculates propagation cost Lr using a SGM propagation system. 測距システムの動作手順を説明するフローチャート図の一例である。It is an example of the flowchart figure explaining the operation | movement procedure of a ranging system. ステレオマッチングコストCST(p,Z)の一例を示す図である。It is a figure which shows an example of stereo matching cost CST (p, Z). LIDARコストCLI(p,Z)の一例を示す図である。It is a figure which shows an example of LIDAR cost CLI (p, Z). LIDARコストCLI(p,Z)を補足して説明するための図の一例である。It is an example of the figure for supplementing and explaining LIDAR cost CLI (p, Z). ステレオマッチングコストCST(p,Z)へのLIDARコストCLI(p、Z)の投票を説明する図の一例である。LIDAR cost C LI (, p Z) to the stereo matching cost C ST (p, Z) is an example of a diagram illustrating the vote. 物体面の画素数を説明する図の一例である。It is an example of the figure explaining the number of pixels of an object surface. レーザの分解能による距離Zでの画素数xL、yLの算出を説明する図の一例である。It is an example of the figure explaining calculation of the pixel number xL in the distance Z by the resolution of a laser, yL. 物体面が照射面を包含する距離を説明する図の一例である。It is an example of a figure explaining the distance in which an object side includes an irradiation side. 遠距離の場合と近距離の場合のそれぞれで照射面と物体面の関係を説明する図である。It is a figure explaining the relationship between an irradiation surface and an object surface in each of the case of a long distance and the case of a short distance. エネルギーコストS(p,Z)の算出方法を説明する図の一例である。It is an example of the figure explaining the calculation method of energy cost S (p, Z). エネルギーコストS(p,Z)の算出方法を模式的に示す図である。It is a figure which shows typically the calculation method of energy cost S (p, Z). エネルギーコストS(p,Z)が最小となる距離の算出方法を説明する図の一例である。It is an example of the figure explaining the calculation method of the distance where energy cost S (p, Z) becomes the minimum. マルチパルスの処理を説明する図の一例である。It is an example of the figure explaining the process of multipulse. 送信波、受信波、及び、反射波のモデルを示す図である。It is a figure which shows the model of a transmission wave, a reception wave, and a reflected wave. 送信波と受信波の周波数を模式的に示す図である。It is a figure which shows the frequency of a transmitting wave and a receiving wave typically. FMCW方式の送信波と受信波の波形とうなり信号の波形を示す図の一例である。It is an example of the figure which shows the waveform of the wave of a FMCW system transmission wave and a reception wave, and a beat signal. 物体の方向を説明する図である。It is a figure explaining the direction of an object. 状況を説明するための基準画像を示す図である。It is a figure which shows the reference | standard image for demonstrating a condition. 俯瞰マップの比較例を示す図である。It is a figure which shows the comparative example of a bird's-eye view map. 俯瞰マップの作成方法を説明する図の一例である。It is an example of the figure explaining the creation method of a bird's-eye view map. 状況を説明するための基準画像を示す図である。It is a figure which shows the reference | standard image for demonstrating a condition. 俯瞰マップの比較例を示す図である。It is a figure which shows the comparative example of a bird's-eye view map. ヘッドライトが撮像された夜間の基準画像を示す図である。It is a figure which shows the reference | standard image at night when the headlight was imaged. 俯瞰マップの比較例を示す図である。It is a figure which shows the comparative example of a bird's-eye view map. 状況を説明するための基準画像を示す図である。It is a figure which shows the reference | standard image for demonstrating a condition. SGM伝播方式で生じる膨張の抑制結果を説明する図である。It is a figure explaining the suppression result of the expansion which arises with a SGM propagation system. LIDARコストCLI(p,Z)の距離成分コストCLD(p,Z)を模式的に表す図の一例である。LIDAR cost C LI (p, Z) distance component cost C LD (p, Z) of the which is an example of a diagram schematically showing. 空間成分のLIDARコストCLI(p,Z)と距離成分コストCLD(p,Z)がどのようにステレオマッチングコストCST(p,Z)に統合されるかを説明する図の一例である。It is an example of the figure explaining how the LIDAR cost CLI (p, Z) of the spatial component and the distance component cost CLD (p, Z) are integrated into the stereo matching cost CST (p, Z). . レーザレーダ測距部又はステレオ画像演算部に異常がある場合の、ECUの制御例を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the example of control of ECU when there exists abnormality in a laser radar ranging part or a stereo image calculating part. レーザレーダ測距部又はステレオ画像演算部に異常が生じた場合の表示例を示す図である。It is a figure which shows the example of a display when abnormality arises in a laser radar ranging part or a stereo image calculating part. 画像データとレーザ光の照射位置を模式的に示す図である。It is a figure which shows typically the irradiation position of image data and a laser beam. 距離情報に対応付けられた受光レベルとステレオマッチングコストCST(p,Z)の統合例を説明する図の一例である。It is an example of the figure explaining the example of integration of the light reception level matched with distance information, and the stereo matching cost CST (p, Z). 距離画像提供システムの概略構成図の一例である。It is an example of the schematic block diagram of a distance image provision system. 距離画像提供システムの機能ブロック図の一例である。It is an example of a functional block diagram of a distance image providing system.

以下、本発明を実施するための形態の一例として測距システム及び測距システムが行う画像処理方法について説明する。   Hereinafter, a distance measuring system and an image processing method performed by the distance measuring system will be described as an example for carrying out the present invention.

<LIDARとステレオカメラの測距性能>
まず、図1を用いてLIDARとステレオカメラの測距性能について説明する。図1(a)は距離Zと距離分解能の関係をLIDARとステレオカメラを比較して示す。なお、距離分解能は、値が小さい方が、性能が高い。図示するように、LIDARは距離Zが大きくてもほぼ一定の距離分解能を示すが、ステレオカメラは距離Zが大きくなると急激に距離分解能も大きくなる。したがって、ステレオカメラの測距精度は遠方領域で大きく低下する。
<LIDAR and distance measurement performance of stereo camera>
First, the distance measurement performance of the LIDAR and the stereo camera will be described with reference to FIG. FIG. 1A shows the relationship between the distance Z and the distance resolution by comparing the LIDAR and the stereo camera. Note that the smaller the distance resolution, the higher the performance. As shown, LIDAR exhibits a substantially constant distance resolution even if the distance Z is large, but the stereo camera rapidly increases the distance resolution as the distance Z increases. Therefore, the distance measurement accuracy of the stereo camera is greatly reduced in the far area.

図1(b)はLIDARにおける距離Zと空間分解能の関係を示す。なお、空間分解能も値が小さい方が、性能が高い。図1(b)では、0.1度、0.2度、0.3度、0.4度、0.5度、0.6度の照射間隔(照射分解能)ごとに空間分解能を示すが、いずれも距離Zが大きくなると増大してしまう。   FIG. 1 (b) shows the relationship between the distance Z and the spatial resolution in LIDAR. The smaller the spatial resolution, the higher the performance. In FIG. 1 (b), the spatial resolution is shown at every irradiation interval (irradiation resolution) of 0.1 degree, 0.2 degree, 0.3 degree, 0.4 degree, 0.5 degree and 0.6 degree. In either case, the distance Z increases as the distance Z increases.

これに対し、図1(c)はステレオカメラにおける距離Zと空間分解能の関係を示す。ステレオカメラでは画素ごとに空間を分解できるため空間分解能が高く、距離Zに対してもそれほど大きくは増大しない。   On the other hand, FIG. 1 (c) shows the relationship between the distance Z and the spatial resolution in a stereo camera. In the stereo camera, the space can be decomposed for each pixel, so the spatial resolution is high, and the distance Z does not increase so much.

以上から、以下のような改善点が抽出される。
・ステレオカメラの測距精度:遠方ほど距離分解能が粗くなるため、遠方測距や遠方物体検出が難しい。
・ステレオカメラの耐物標性:繰返しパタンや低テクスチャでの誤マッチングが発生し、分散(ばらつき)の大きい距離値が多く発生する。
・ステレオカメラの耐環境性:夜間になると距離算出が困難になる。
・LIDAR:空間分解能が低い。
From the above, the following improvement points are extracted.
・ Shooting accuracy of stereo camera: Since the distance resolution becomes coarser as the distance increases, it is difficult to perform distance measurement and object detection.
Stereo camera object resistance: Repeated patterns or low textures cause incorrect matching, and many distance values with large dispersion (variation) occur.
・ Environmental resistance of stereo cameras: Distance calculation becomes difficult at night.
・ LIDAR: Low spatial resolution.

本実施形態の測距システム100は、これらの改善点を改善する。また、後述するようにステレオカメラの画像データに対しSGM(Semi−Global−Matching)伝播方式いうアルゴリズムで距離画像を求められると、物体の境界が失われたり物体領域が膨張したりするという課題がある。本実施形態ではこのSGM伝播方式で生じやすい物体の境界の消失と境界の膨張を抑制することも可能になる。   The ranging system 100 of the present embodiment improves these improvements. In addition, as will be described later, when a distance image is obtained for an image data of a stereo camera by an algorithm called an SGM (Semi-Global-Matching) propagation method, there is a problem that an object boundary is lost or an object region is expanded. is there. In the present embodiment, it is also possible to suppress the disappearance of the boundary of the object and the expansion of the boundary that are likely to occur in this SGM propagation method.

<用語について>
対応点を探す事をマッチングといい、そのマッチングの度合いをコストという。コストはマッチングの度合いの「評価値」であり、「非類似度」や「類似度」とも表現される。非類似度が低ければより一致している事を示し、類似度が高ければより一致している事を示す指標である。「非類似度」「類似度」を合わせて「一致度」とも表現することもある。
<Terminology>
Finding corresponding points is called matching, and the degree of matching is called cost. The cost is an “evaluation value” of the degree of matching, and is also expressed as “dissimilarity” or “similarity”. If the dissimilarity is low, the index indicates that they are more consistent, and if the similarity is high, the index indicates that they are more consistent. “Dissimilarity” and “similarity” may be collectively expressed as “matching”.

分解能について図2を用いて説明する。図2は距離分解能と空間分解能を説明する図である。距離分解能とは物体までの距離の違いを識別できる能力である。Z方向の距離分解能が例えば10cmの場合、原点から12cmにある物体と21cmにある物体(9cmしか違いがない)を識別できず同じ物体(同じ距離)と判断される。   The resolution will be described with reference to FIG. FIG. 2 is a diagram for explaining the distance resolution and the spatial resolution. Distance resolution is the ability to identify differences in distance to an object. When the distance resolution in the Z direction is, for example, 10 cm, an object 12 cm from the origin and an object 21 cm (only 9 cm is different) cannot be identified, and are determined to be the same object (same distance).

空間分解能とは二次元の任意の方向の距離の違いを識別する能力である。X,Y平面において例えば空間分解能が5cmの場合、距離が4cmしか離れていない2つの物体を識別できず同じ物体と判断される。空間分解能を角度分解能と称してもよい。   Spatial resolution is the ability to identify differences in distance in any direction in two dimensions. If, for example, the spatial resolution is 5 cm in the X and Y planes, two objects separated by only 4 cm can not be identified and it is determined to be the same object. Spatial resolution may be referred to as angular resolution.

測距方向は物体までの距離を測定した方向であり、物体の方向である。測距方向により特定される画素は、該画素の他、周囲の画素を含む。   The ranging direction is the direction in which the distance to the object is measured, and is the direction of the object. The pixels specified by the ranging direction include surrounding pixels in addition to the pixels.

距離情報に関する距離評価値は、電磁波の照射方向により特定される画素と周囲の画素について電磁波などで検出された距離の不確かさに応じて設定される評価値である。本実施形態ではLIDARコストCLI(p,Z)という用語で説明される。マッチング評価値はブロックマッチングにおけるマッチングの度合いである。本実施形態ではステレオマッチングコストCST(p,Z)という用語で説明される。 The distance evaluation value regarding distance information is an evaluation value set according to the uncertainty of the distance detected by electromagnetic waves etc. about the pixel specified by the irradiation direction of electromagnetic waves, and a surrounding pixel. In the present embodiment, the term LIDAR cost C LI (p, Z) is used. The matching evaluation value is the degree of matching in block matching. In the present embodiment, the term stereo matching cost C ST (p, Z) is used.

<本実施形態の測距システムの概略>
図3は、一般的な視差空間を用いた場合に得られる距離Zを説明する図の一例である。図3(a)はブロックマッチング及びSGM伝播方式により得られる、シフト量を横軸にしてコストC(p,d)と伝播コストLr(p,Z)を示す。図3(a)では探索範囲を64画素とする。pは注目画素、dは基準画像と比較画像のシフト量(探索視差)である。64画素の探索範囲で最も小さいコストC(p、d)又は伝播コストLr(p,Z)が注目している画素pの視差(整数視差)として採用される。
<Outline of Ranging System of This Embodiment>
FIG. 3 is an example of a diagram for explaining the distance Z obtained when using a general parallax space. FIG. 3A shows the cost C (p, d) and the propagation cost Lr (p, Z) with the shift amount as the horizontal axis, obtained by the block matching and SGM propagation method. In FIG. 3A, the search range is 64 pixels. p is the target pixel, and d is the shift amount (search parallax) between the reference image and the comparison image. The smallest cost C (p, d) or the propagation cost Lr (p, Z) in the search range of 64 pixels is adopted as the parallax (integer parallax) of the pixel p of interest.

図3(b)はZ空間におけるコストC(p,d)又は伝播コストLr(p,Z)を示す。図3(a)の視差dから式(1)により距離Zが求められる。
Z=BF/d …(1)
なお、Bはステレオカメラにおける左右のカメラの光軸間距離、Fは左右のカメラの焦点距離である。図3(b)に示すように、Z空間では、コストC(p,d)又は伝播コストLr(p,Z)が得られる距離Zに疎密が生じる。これは距離Zを算出する式(1)の分母にdが含まれているため、距離Zがdに反比例し、dが0に近いと距離Zが大きく変化するためである。
FIG. 3 (b) shows the cost C (p, d) or the propagation cost Lr (p, Z) in the Z space. The distance Z is obtained from the parallax d in FIG.
Z = BF / d (1)
B is the distance between the optical axes of the left and right cameras in the stereo camera, and F is the focal length of the left and right cameras. As shown in FIG. 3 (b), in the Z space, a density occurs in the distance Z at which the cost C (p, d) or the propagation cost Lr (p, Z) is obtained. This is because d is included in the denominator of the equation (1) for calculating the distance Z, the distance Z is inversely proportional to d, and when d is close to 0, the distance Z changes significantly.

したがって、一般的なブロックマッチングは遠距離側で粗いコスト伝播をしているのと同義になり、遠距離で高精度を得ることが困難になる。   Therefore, general block matching is equivalent to coarse cost propagation on the long distance side, and it becomes difficult to obtain high accuracy at long distance.

図4はLIDAR9の距離情報とステレオカメラ8の距離画像の従来の統合方法を説明する図の一例である。従来は、ステレオカメラ8がブロックマッチング等で距離画像を出力した後に、LIDAR9が測定する距離情報を後発的に追加する統合方法が一般的であった。この統合方法では、図3で説明したようにステレオカメラ8の距離画像にそもそも多くの誤差が含まれているため、LIDARの距離情報を加えても精度の向上に限界があった。   FIG. 4 is an example of a diagram for explaining a conventional integration method of the distance information of LIDAR 9 and the distance image of the stereo camera 8. Conventionally, it has been common to use an integrated method in which the distance information measured by the LIDAR 9 is added later after the stereo camera 8 outputs a distance image by block matching or the like. In this integration method, since many errors are included in the distance image of the stereo camera 8 in the first place as described in FIG. 3, there is a limit to improvement in accuracy even if LIDAR distance information is added.

そこで、本実施形態では、図5に示すようにステレオカメラ8がブロックマッチング等で距離画像を出力する前にLIDAR9が測定した距離情報を統合させる。図5(a)は本実施形態におけるLIDAR9の距離情報とステレオカメラ8の距離画像の統合方法を説明する図の一例である。ステレオカメラ8は距離画像を出力する前にLIDAR9が出力する距離情報をコストC(p,d)に統合させる。   Therefore, in the present embodiment, as shown in FIG. 5, the distance information measured by the LIDAR 9 is integrated before the stereo camera 8 outputs the distance image by block matching or the like. FIG. 5A is an example for explaining a method for integrating the distance information of the LIDAR 9 and the distance image of the stereo camera 8 in the present embodiment. The stereo camera 8 integrates the distance information output by the LIDAR 9 into the cost C (p, d) before outputting the distance image.

そして、図5(b)に示すように、この統合の際、ステレオカメラ8はZ空間でコストC(p,Z)を演算する。図5(b)はZ空間におけるコストC(p,Z)及び伝播コストLr(p,Z)の一例を示す。疎密の少ないZ空間を予め用意しておき、このZ空間でステレオカメラ8が算出したコストC(p,Z)のうち距離ZにLIDARのコストを投票し、SGM伝播方式等によるコストの伝播もZ空間で行うことで、Z空間においてコストが最小の距離Zを特定でき、距離分解能が高い距離画像が得られる。また、距離画像はもともと空間分解能が高いため、高密度かつ高分解能な距離画像が得られる。   Then, as shown in FIG. 5B, in this integration, the stereo camera 8 calculates the cost C (p, Z) in the Z space. FIG. 5B shows an example of the cost C (p, Z) and the propagation cost Lr (p, Z) in the Z space. A Z space with low density is prepared in advance, and the cost of LIDAR is voted for the distance Z among the costs C (p, Z) calculated by the stereo camera 8 in this Z space, and the cost propagation by the SGM propagation method or the like is also possible. By performing in the Z space, the distance Z with the lowest cost in the Z space can be specified, and a distance image with high distance resolution can be obtained. In addition, since the distance image originally has a high spatial resolution, a high-density and high-resolution distance image can be obtained.

このように、本実施形態の測距システムは、ステレオカメラがブロックマッチング等で距離画像を出力する前に、Z空間でLIDARが測定した距離情報を統合させることで高密度かつ高分解能な距離画像を実現できる。   As described above, the distance measuring system according to the present embodiment integrates the distance information measured by the LIDAR in the Z space before the stereo camera outputs the distance image by block matching or the like, thereby obtaining a high-density and high-resolution distance image. Can be realized.

<測距システムの適用例>
図6を用いて、測距システム100の適用例について説明する。図6は、移動体の一例である移動体200に搭載された測距システム100を示す図である。図6では、移動体200のフロントウィンドウの内側中央位置に、測距システム100が設定されている。測距システム100は、レーザレーダ測距部110とステレオ画像演算部120とを有する。レーザレーダ測距部110とステレオ画像演算部120はいずれも前方が測距範囲となるように設置されている。レーザレーダ測距部110は、ステレオ画像演算部120が有するステレオカメラ(2つの撮像部又は撮像手段)の間(好ましくは中央)に配置されるものとする。
<Example of application of ranging system>
An application example of the distance measurement system 100 will be described with reference to FIG. FIG. 6 is a view showing a distance measuring system 100 mounted on a mobile unit 200 which is an example of a mobile unit. In FIG. 6, the ranging system 100 is set at the center position inside the front window of the moving body 200. The ranging system 100 includes a laser radar ranging unit 110 and a stereo image calculation unit 120. The laser radar distance measurement unit 110 and the stereo image calculation unit 120 are both installed so that the front is a distance measurement range. The laser radar ranging unit 110 is disposed between (preferably, at the center of) the stereo cameras (two imaging units or imaging units) included in the stereo image calculation unit 120.

なお、レーザレーダは上記のLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)と呼ばれる場合がある。本実施形態では特に断らない限り両者を区別しない。レーザレーダ又はLIDARは、レーザーダイオードを使って可視スペクトル外の光のパルスを発射し、そのパルスが戻ってくる時間を計測することで距離を算出する。ある瞬間のパルスが反射した方向と距離を、レーザレーダ測距部110を中心とした3D地図の中の点として記録する。   The laser radar may be called LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging). In the present embodiment, both are not distinguished unless otherwise specified. Laser radar or LIDAR emits a pulse of light outside the visible spectrum using a laser diode, and calculates the distance by measuring the time when the pulse returns. The direction and distance in which a pulse at a certain moment is reflected is recorded as a point in the 3D map with the laser radar distance measuring unit 110 as the center.

また、図6では、レーザレーダ測距部110とステレオ画像演算部120が一体的に構成された測距システム100を示したが、レーザレーダ測距部110とステレオ画像演算部120は別体に構成されてもよい。   Further, FIG. 6 shows the distance measurement system 100 in which the laser radar distance measurement unit 110 and the stereo image calculation unit 120 are integrally configured, but the laser radar distance measurement unit 110 and the stereo image calculation unit 120 are separately provided. It may be configured.

図7は、レーザレーダ測距部110とステレオ画像演算部120が別体に構成された測距システム100の一例を示す。図7では、レーザレーダ測距部110が例えばフロントグリルの内側に搭載され、ステレオ画像演算部120が車室内側の前方(例えばルームミラーの裏側近く)に配置されている。本実施形態では、レーザレーダ測距部110から出力される距離情報が、ステレオ画像演算部120の距離情報と統合されればよく、図6,図7に示す形状や構成に限られない。   FIG. 7 shows an example of a ranging system 100 in which the laser radar ranging unit 110 and the stereo image calculation unit 120 are configured separately. In FIG. 7, the laser radar distance measuring unit 110 is mounted, for example, inside the front grille, and the stereo image calculation unit 120 is disposed in front of the vehicle interior side (for example, near the back side of the room mirror). In the present embodiment, the distance information output from the laser radar distance measuring unit 110 may be integrated with the distance information of the stereo image calculating unit 120, and the present invention is not limited to the shapes and configurations shown in FIGS.

<レーザレーダ測距部のレーザの照射範囲>
図8は、レーザレーダ測距部110によるレーザ光の照射範囲について説明する図の一例である。図8(a)は、移動体200を上方から見た上面図であり、図8(b)は、移動体200を側方から見た側面図である。
<Laser irradiation range of laser radar range finder>
FIG. 8 is an example of a diagram for explaining the laser light irradiation range by the laser radar distance measuring unit 110. FIG. 8A is a top view of the moving body 200 as viewed from above, and FIG. 8B is a side view of the moving body 200 as viewed from the side.

図8(a)に示すように、レーザレーダ測距部110は、移動体200の進行方向の前方の所定範囲を水平方向に走査しながらレーザ光を照射する。なお、レーザ光は光と捉えてもよいし電磁波と捉えてもよい。   As shown in FIG. 8A, the laser radar distance measuring unit 110 irradiates a laser beam while scanning a predetermined range in front of the traveling direction of the moving body 200 in the horizontal direction. The laser light may be regarded as light or as electromagnetic waves.

また、図8(b)に示すように、レーザレーダ測距部110は、移動体200の進行方向の前方の所定範囲に向かってレーザ光を照射する。どの程度遠方までレーザが到達するかはレーザレーダ測距部110の出力によるが数百メートル程度の範囲で測距可能である。近い側の検出範囲は1メートル未満から検出可能であるが、通常、これほどの近距離領域では測距の必要性が低いため適宜、距離を検出する範囲が設定されていてよい。   Further, as shown in FIG. 8B, the laser radar distance measuring unit 110 irradiates laser light toward a predetermined range ahead of the moving direction of the moving body 200. How far the laser reaches can be measured in a range of several hundred meters depending on the output of the laser radar ranging unit 110. Although the detection range on the near side can be detected from less than 1 meter, since the necessity for distance measurement is usually low in such a short distance region, a range for detecting the distance may be set as appropriate.

レーザレーダ測距部110は、レーザ光の照射方向を、仰角方向に回転させながら水平方向に走査させることができるよう構成されている。これにより、レーザレーダ測距部110の設置位置を基準として、近傍から遠方までの照射範囲を照射することができる。   The laser radar distance measurement unit 110 is configured to be able to scan in the horizontal direction while rotating the irradiation direction of the laser light in the elevation direction. Accordingly, it is possible to irradiate the irradiation range from the vicinity to the far side with the installation position of the laser radar distance measuring unit 110 as a reference.

<ステレオ画像演算部の撮像範囲>
図9は、ステレオ画像演算部120によるステレオ画像の撮像範囲を説明するための図である。ステレオ画像とは基準画像と比較画像の両方をいう。図9(a)は、移動体200の上面図である。ステレオ画像演算部120は、2つの撮像装置(カメラ)が移動体200の進行方向の前方に光軸を向けて設置されており、進行方向の所定範囲の画像を撮像する。レーザ光の照射範囲とステレオカメラの撮像範囲は少なくとも一部が重複している。
<Imaging range of stereo image computing unit>
FIG. 9 is a diagram for explaining a stereo image capturing range by the stereo image calculation unit 120. A stereo image refers to both a reference image and a comparative image. FIG. 9A is a top view of the moving body 200. In the stereo image computing unit 120, two imaging devices (cameras) are installed with the optical axis facing forward in the traveling direction of the moving body 200, and pick up an image in a predetermined range in the traveling direction. The irradiation range of the laser light and the imaging range of the stereo camera at least partially overlap.

図9(b−1)と図9(b−2)は、ステレオカメラにより撮像された基準画像(右カメラの画像データ)と比較画像(左カメラの画像データ)を示す。右カメラ11と左カメラ12は互いに、所定の間隔を介して水平に設置されている。このため、基準画像と比較画像は重複部分を有するが、撮像画像内のオブジェクトの位置が、左右方向にずれることになる。   FIG. 9 (b-1) and FIG. 9 (b-2) show a reference image (image data of the right camera) and a comparison image (image data of the left camera) captured by the stereo camera. The right camera 11 and the left camera 12 are horizontally installed at predetermined intervals. For this reason, the reference image and the comparison image have overlapping portions, but the position of the object in the captured image is shifted in the left-right direction.

ステレオ画像演算部120は、基準画像と比較画像の各オブジェクトのずれ量(これが視差となる)を算出することで、距離画像を生成し出力する。ステレオ画像演算部120はステレオ画像の画素に距離情報の対応付けも行う。   The stereo image calculation unit 120 generates and outputs a distance image by calculating the amount of displacement of each object of the reference image and the comparison image (this becomes parallax). The stereo image computing unit 120 also associates distance information with the pixels of the stereo image.

また、右カメラ11と左カメラ12のいずれかを省略して、単眼カメラによりステレオ画像を取得してもよい。図10を用いて単眼カメラからステレオ画像を生成する方法を説明する。   Alternatively, either the right camera 11 or the left camera 12 may be omitted, and a stereo image may be acquired with a monocular camera. A method for generating a stereo image from a monocular camera will be described with reference to FIG.

図10(a)に示すようにステレオ画像演算部120は右カメラ11と左カメラ12を有している。まず、大量の基準画像と比較画像を用意し、深層学習(ディープラーニング)により基準画像から比較画像を学習させるか、又は、比較画像から基準画像を学習させる。以下では、基準画像から比較画像を学習させるものとして説明する。   As shown in FIG. 10A, the stereo image calculation unit 120 includes a right camera 11 and a left camera 12. First, a large number of reference images and comparison images are prepared, and the comparison images are learned from the reference images by deep learning (deep learning), or the reference images are learned from the comparison images. Below, it demonstrates as what learns a comparison image from a reference | standard image.

DNN(Deep Neural Network)121の入力層に基準画像の各画素値が入力される。中間層は1つ以上の畳み込み層、1つ以上のプーリング層、ニューラルネットワーク、及び、encoder decoder networkが組み合わせて構築される。中間層は二次元フィルタの係数として表される。出力層は推定される比較画像の各画素値を出力する。出力層が出力する画素値と実際の比較画像の画素値の差を誤差逆伝播法で二次元フィルタの係数に反映させる(学習する)。十分な数の基準画像と比較画像で二次元フィルタの係数を調整することがDNN121の学習に相当する。なお、二次元フィルタの初期値はオートエンコーダで学習するとよい。   Each pixel value of the reference image is input to an input layer of a DNN (Deep Neural Network) 121. The middle layer is constructed by combining one or more convolutional layers, one or more pooling layers, a neural network, and an encoder decoder network. The intermediate layer is represented as a coefficient of a two-dimensional filter. The output layer outputs each pixel value of the estimated comparison image. The difference between the pixel value output from the output layer and the pixel value of the actual comparison image is reflected (learned) on the coefficients of the two-dimensional filter by the error back propagation method. Adjusting the coefficients of the two-dimensional filter with a sufficient number of reference images and comparison images corresponds to learning of the DNN 121. The initial value of the two-dimensional filter may be learned by an auto encoder.

図10(b)は学習後に車載される単眼カメラ演算部122とDNN121の一例を示す。車載された段階では、単眼カメラ演算部122が基準画像のみを出力する。DNN121は比較画像を出力する出力器となる。基準画像はDNN121に入力され、推定された比較画像を出力する。このようにして得られる比較画像は、左カメラ12で撮像された比較画像と違いがあるものの、距離画像を生成することができる品質であることが実際に確認されている。単眼カメラ演算部122は基準画像と推定された比較画像でブロックマッチングを行う。   FIG. 10B shows an example of the monocular camera calculation unit 122 and the DNN 121 that are mounted on the vehicle after learning. At the stage of being mounted on the vehicle, the monocular camera operation unit 122 outputs only the reference image. The DNN 121 is an output device that outputs a comparison image. The reference image is input to the DNN 121, and the estimated comparison image is output. Although the comparison image obtained in this way is different from the comparison image captured by the left camera 12, it is actually confirmed that the quality is such that a distance image can be generated. The monocular camera operation unit 122 performs block matching with the comparison image estimated as the reference image.

したがって、本実施形態では右カメラ11と左カメラ12のいずれか一方があればよく、ステレオカメラが搭載されることは必須でない。換言すれば、ステレオ画像が必須要件であり、ステレオ画像を生成する手段は限定されない。   Therefore, in the present embodiment, any one of the right camera 11 and the left camera 12 may be provided, and it is not essential to mount a stereo camera. In other words, a stereo image is an essential requirement, and means for generating a stereo image is not limited.

<レーザ光の照射位置とステレオ画像の画素位置との関係>
次に、図11を用いて、レーザレーダ測距部110によるレーザ光の照射位置とステレオ画像演算部120により撮像されたステレオ画像(基準画像)の画素位置との関係について説明する。図11(a)は、レーザ光の照射位置とステレオ画像(基準画像)の画素位置との関係を説明する図の一例である。
<Relationship between laser beam irradiation position and pixel position of stereo image>
Next, the relationship between the irradiation position of the laser light by the laser radar distance measurement unit 110 and the pixel position of the stereo image (reference image) captured by the stereo image calculation unit 120 will be described using FIG. FIG. 11A is an example for explaining the relationship between the irradiation position of the laser light and the pixel position of the stereo image (reference image).

レーザレーダ測距部110によるレーザの照射方向と、基準画像の画素位置は予め対応付けておくことができる。図11(a)では側方から見た2つのオブジェクトO1、O2が示されており、図11(b)はオブジェクトO1、O2が撮像された基準画像の一例である。オブジェクトO2,O1はレーザレーダ測距部110と右カメラ11の光軸に対し直線上にあるため、重なって撮像される。   The laser irradiation direction by the laser radar ranging unit 110 and the pixel position of the reference image can be associated in advance. FIG. 11A shows two objects O1 and O2 viewed from the side, and FIG. 11B is an example of a reference image in which the objects O1 and O2 are captured. Since the objects O2 and O1 are on a straight line with respect to the optical axes of the laser radar distance measuring unit 110 and the right camera 11, they are imaged in an overlapping manner.

オブジェクトO2の高さh2がオブジェクトO1の高さh1のちょうど2倍で、オブジェクトO2の移動体200からの距離L2がオブジェクトO1の移動体200からの距離L1のちょうど2倍であるとする(図では作図の関係でほぼ2倍となる)。オブジェクトO1とO2のサイズと距離が比例関係にあるため、画像データにはオブジェクトO1とO2が同じサイズで写り、また、オブジェクトO1とO2と移動体200の位置関係から重なって写る。したがって、レーザ光がオブジェクトO1とO2の上端を通過した場合、レーザ光はステレオ画像演算部120により撮像された基準画像のオブジェクトO1、O2の上端に写るはずである(可視光でないため実際には写らない)。このようにオブジェクトまでの距離に関係なく、レーザ光の照射方向と、基準画像の画素位置は1対1に対応するので、両者を予め対応付けておくことができる。   Assume that the height h2 of the object O2 is exactly twice the height h1 of the object O1, and the distance L2 of the object O2 from the moving body 200 is exactly twice the distance L1 of the object O1 from the moving body 200 (FIG. Then, it is almost doubled due to drawing). Since the sizes and distances of the objects O1 and O2 are proportional to each other, the objects O1 and O2 appear in the same size in the image data, and overlap due to the positional relationship between the objects O1 and O2 and the moving body 200. Therefore, when the laser light passes through the upper ends of the objects O1 and O2, the laser light should appear on the upper ends of the objects O1 and O2 of the reference image captured by the stereo image calculation unit 120 (actually because it is not visible light). Not reflected). As described above, regardless of the distance to the object, the irradiation direction of the laser light and the pixel position of the reference image are in one-to-one correspondence, so both can be associated in advance.

図11(c)は、基準画像の画素P1〜P4に対応する距離情報を示す。例えば、P1(x1,y1)の画素は水平方向θ1、仰角φ1の照射方向と対応し、P2(x2,y2)の画素は水平方向θ2、仰角φ2の照射方向と対応し、P3(x3,y3)の画素は水平方向θ3、仰角φ3の照射方向と対応し、P4(x4,y4)の画素は水平方向θ4、仰角φ4の照射方向と対応する。   FIG. 11C shows distance information corresponding to the pixels P1 to P4 of the reference image. For example, the pixel of P1 (x1, y1) corresponds to the irradiation direction of the horizontal direction θ1 and the elevation angle φ1, and the pixel of P2 (x2, y2) corresponds to the irradiation direction of the horizontal direction θ2 and the elevation angle φ2, and P3 (x3, The pixel y3) corresponds to the irradiation direction of the horizontal direction θ3 and the elevation angle φ3, and the pixel P4 (x4, y4) corresponds to the irradiation direction of the horizontal direction θ4 and the elevation angle φ4.

このため、レーザレーダ測距部110から照射方向と距離情報が出力されると、ステレオ画像演算部120は測定された距離情報を画素に関連付けることができる。   For this reason, when the irradiation direction and the distance information are output from the laser radar distance measuring unit 110, the stereo image calculation unit 120 can associate the measured distance information with the pixel.

<レーザレーダ測距部の機能構成>
次に、図12は、レーザレーダ測距部110の機能構成図の一例である。レーザレーダ測距部110は信号処理部601、仰角方向スキャンドライブユニット602、モータ603、仰角方向スキャンミラー604、レーザ受光部605、信号増幅器606、時間間隔カウンタ607、レーザ出力部608、及び、レーザドライバ609を有する。
<Functional Configuration of Laser Radar Rangefinder>
Next, FIG. 12 is an example of a functional configuration diagram of the laser radar distance measuring unit 110. The laser radar ranging unit 110 includes a signal processing unit 601, an elevation direction scan drive unit 602, a motor 603, an elevation direction scan mirror 604, a laser light receiving unit 605, a signal amplifier 606, a time interval counter 607, a laser output unit 608, and a laser driver. It has 609.

信号処理部601からの指示に基づいて、仰角方向スキャンドライブユニット602が、仰角方向スキャンミラー604を仰角方向に回転させるためのモータ603を駆動する。これにより、仰角方向スキャンミラー604は、仰角方向に回転する。   Based on an instruction from the signal processing unit 601, the elevation direction scan drive unit 602 drives a motor 603 for rotating the elevation direction scan mirror 604 in the elevation direction. Thereby, the elevation direction scan mirror 604 rotates in the elevation direction.

また、信号処理部601からの指示に基づいて、レーザドライバ609が駆動し、レーザ出力部608からレーザ光が出力される。このとき、レーザ光の出力タイミングは、時間間隔カウンタ607に一時的に保持される。レーザ出力部608から出力されたレーザ光は、仰角方向スキャンミラー604を介して、外部に出力されるため、所定の照射範囲を照射することになる。   Further, based on an instruction from the signal processing unit 601, the laser driver 609 is driven and a laser beam is output from the laser output unit 608. At this time, the output timing of the laser light is temporarily held by the time interval counter 607. The laser light output from the laser output unit 608 is output to the outside through the elevation direction scan mirror 604, and thus irradiates a predetermined irradiation range.

外部に出力されたレーザ光は、照射方向の物体(対象物)で反射し、その反射光が仰角方向スキャンミラー604を介して、レーザ受光部605において受光される。レーザ受光部605は、垂直方向に配列された複数のフォトディテクタ(PD:Photo Detector)を有しており、レーザ光はいずれかのフォトディテクタで受光され電気信号に変換される。   The laser light output to the outside is reflected by an object (target object) in the irradiation direction, and the reflected light is received by the laser light receiving unit 605 via the elevation direction scan mirror 604. The laser light receiving unit 605 has a plurality of photo detectors (PD: Photo Detector) arranged in the vertical direction, and the laser light is received by one of the photo detectors and converted into an electric signal.

変換された電気信号は、信号増幅器606において増幅され、時間間隔カウンタ607に入力される。時間間隔カウンタ607では、レーザ出力部608より出力されたレーザ光の出力タイミングと、レーザ受光部605において受光された反射光の受光タイミングとに基づいて、時間間隔を算出する。   The converted electric signal is amplified by the signal amplifier 606 and input to the time interval counter 607. The time interval counter 607 calculates the time interval based on the output timing of the laser light output from the laser output unit 608 and the light reception timing of the reflected light received by the laser light receiving unit 605.

時間間隔カウンタ607において算出された時間間隔は、信号処理部601において距離情報に変換され、照射方向を示す情報と共に、ステレオ画像演算部120に出力される。   The time interval calculated by the time interval counter 607 is converted into distance information in the signal processing unit 601, and is output to the stereo image computing unit 120 together with the information indicating the irradiation direction.

また、信号処理部601は異常監視部601aを有している。異常監視部601aはレーザレーダ測距部110に生じる異常を監視する。例えば、時間間隔カウンタ607が検出する時間間隔、又は、信号処理部601が検出した距離情報が変化しない時間が一定時間以上継続した場合に異常があると判断する。この他、距離情報が仕様外の値を取ることが一定時間以上継続した場合、又は、信号処理部601が規定値以上の温度に達した場合、などに異常を検出してもよい。レーザレーダ測距部110は異常がある旨をステレオ画像演算部120に通知する。   Further, the signal processing unit 601 has an abnormality monitoring unit 601 a. The abnormality monitoring unit 601a monitors an abnormality occurring in the laser radar distance measuring unit 110. For example, it is determined that there is an abnormality when the time interval detected by the time interval counter 607 or the time when the distance information detected by the signal processing unit 601 does not change continues for a predetermined time or more. In addition, an abnormality may be detected when the distance information takes a value out of the specification for a certain period of time or when the signal processing unit 601 reaches a temperature equal to or higher than a specified value. The laser radar distance measurement unit 110 notifies the stereo image calculation unit 120 that there is an abnormality.

ステレオ画像演算部120はレーザレーダ測距部110自体の異常を監視する。例えば、レーザレーダ測距部110が無応答であること、通信できないこと、レーザレーダ測距部110から所定の電圧が入ってこないこと(電源オフ)、などを検出する。   The stereo image calculation unit 120 monitors the abnormality of the laser radar ranging unit 110 itself. For example, it is detected that the laser radar distance measuring unit 110 is not responsive, that communication can not be performed, that a predetermined voltage does not come from the laser radar distance measuring unit 110 (power off), and the like.

<ステレオ画像演算部の機能構成>
図13は、測距システム100の構成図を示す。また、図13ではステレオ画像演算部120の機能をブロック状に示している。測距システム100は測距する装置であるため測距装置ということができる。この他、距離測定装置、測距部などと呼ばれてもよい。
<Functional Configuration of Stereo Image Arithmetic Unit>
FIG. 13 shows the configuration of the distance measurement system 100. As shown in FIG. Further, FIG. 13 illustrates the function of the stereo image computing unit 120 in a block form. Since the ranging system 100 is a device for ranging, it can be called a ranging device. Other than this, it may be called a distance measuring device, a distance measuring unit or the like.

図13に示すように、ステレオ画像演算部120は、右カメラ11と、左カメラ12、歪み補正部13、及び、距離演算部14を有する。右カメラ11及び左カメラ12によりステレオカメラが形成されている。なお、本実施形態において、右カメラ11により撮像される撮像画像を基準画像として用い、左カメラ12により撮像される撮像画像を比較画像として用いる。   As shown in FIG. 13, the stereo image calculation unit 120 includes a right camera 11, a left camera 12, a distortion correction unit 13, and a distance calculation unit 14. A stereo camera is formed by the right camera 11 and the left camera 12. In the present embodiment, a captured image captured by the right camera 11 is used as a reference image, and a captured image captured by the left camera 12 is used as a comparative image.

歪み補正部13、及び、距離演算部14は専用の電子回路を用いて実現してもよいし、各部を実現するためのプログラムがCPU(コンピュータ)によって実行されることで実現されてもよい。したがって、ステレオ画像演算部120は情報処理装置の機能を有する。また、画像を処理するという点から画像処理装置でもある。   The distortion correction unit 13 and the distance calculation unit 14 may be realized by using a dedicated electronic circuit, or may be realized by executing a program for realizing each unit by a CPU (computer). Therefore, the stereo image calculation unit 120 has a function of an information processing device. It is also an image processing apparatus from the viewpoint of processing an image.

歪み補正部13は、基準画像と比較画像に一般的な歪み補正を行う。この画像補正により、基準画像と比較画像は視差以外の差異が生じないように補正される。画像補正は事前のキャリブレーションにより可能になる。左カメラ12と右カメラ11は設置される際に、例えば、校正用の被写体(例えば市松模様のチャート)を撮像する。2つの画像を比較して、カメラのレンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等のハード的な内部誤差要因が最小になるように画像データを変換する幾何変換用のLUT(Look Up Table)が生成されている。歪み補正部13はこのようなLUTを参照して画像補正を行う。   The distortion correction unit 13 performs general distortion correction on the reference image and the comparison image. By this image correction, the reference image and the comparison image are corrected so that no difference other than parallax occurs. Image correction is possible by prior calibration. When the left camera 12 and the right camera 11 are installed, for example, a subject for calibration (for example, a checkered chart) is imaged. A LUT (Look for geometric transformation) that transforms image data so as to minimize hardware internal error factors such as camera lens distortion, optical axis deviation, focal length deviation, and image sensor distortion by comparing two images. Up Table) has been generated. The distortion correction unit 13 performs image correction with reference to such an LUT.

距離演算部14は基準画像と比較画像にブロックマッチングやSGM伝播方式などのアルゴリズムを適用して視差を算出する。また、詳細は後述するが距離演算部14は、距離画像を出力する前にレーザレーダ測距部110が出力する距離情報で特定されるステレオマッチングコストCST(p,Z)の距離Zに、LIDARコストCLI(p,Z)を統合する。距離演算部14が行う統合に関する処理を統合処理という。ステレオマッチングコストCST(p,Z)はマッチング評価値の一例であり、LIDARコストCLI(p,Z)は距離評価値の一例である。 The distance calculation unit 14 calculates parallax by applying an algorithm such as block matching or an SGM propagation method to the reference image and the comparison image. Although the details will be described later, the distance calculation unit 14 sets the distance Z of the stereo matching cost C ST (p, Z) specified by the distance information output by the laser radar ranging unit 110 before outputting the distance image. Integrate the LIDAR cost C LI (p, Z). The process concerning integration performed by the distance calculation unit 14 is referred to as integration process. The stereo matching cost C ST (p, Z) is an example of a matching evaluation value, and the LIDAR cost C LI (p, Z) is an example of a distance evaluation value.

また、距離演算部14は異常監視部14aを有している。この異常監視部14aはステレオ画像演算部120に生じる異常を監視する。例えば、基準画像又は比較画像の画素値が変化しない時間が一定時間以上継続した場合に異常があると判断する。この他、画素値が仕様外の値を取ることが一定時間以上継続した場合、又は、距離演算部14が規定値以上の温度に達した場合、などに異常を検出してもよい。ステレオ画像演算部120は異常がある旨をECU20に通知する。なお、ステレオ画像演算部120はレーザレーダ測距部110から異常がある旨を受信した場合、又は、検出した場合もECU20に通知する。   The distance calculation unit 14 includes an abnormality monitoring unit 14a. The abnormality monitoring unit 14a monitors an abnormality occurring in the stereo image calculation unit 120. For example, it is determined that there is an abnormality when the pixel value of the reference image or the comparison image does not change for a certain time or longer. In addition, an abnormality may be detected when the pixel value takes a value outside the specification for a certain period of time or when the distance calculation unit 14 reaches a temperature equal to or higher than a specified value. The stereo image calculation unit 120 notifies the ECU 20 that there is an abnormality. The stereo image calculation unit 120 also notifies the ECU 20 when it receives an error from the laser radar distance measurement unit 110 or when it detects it.

ECU20はステレオ画像演算部120自体の異常を監視する。例えば、ステレオ画像演算部120が無応答であること、通信できないこと、ステレオ画像演算部120から所定の電圧が入ってこないこと(電源オフ)、などを検出する。   The ECU 20 monitors the abnormality of the stereo image calculation unit 120 itself. For example, it is detected that the stereo image calculation unit 120 is not responding, that communication can not be performed, that a predetermined voltage is not input from the stereo image calculation unit 120 (power off), and the like.

図13では一例として、距離画像と基準画像がECU20(Electronic Control Unit:電子制御ユニット)に送出されている。ECU20は移動体の電子制御ユニットである。なお、車載された測距システム100を車載装置という。ECU20は、測距システム100が出力する距離画像と基準画像を用いて各種の運転支援を行う。基準画像については種々のパターンマッチングを行い先行車、歩行者、白線、信号機の状態の認識等を行う。   In FIG. 13, as an example, the distance image and the reference image are sent to the ECU 20 (Electronic Control Unit). The ECU 20 is an electronic control unit for a moving body. The in-vehicle ranging system 100 is referred to as an in-vehicle device. The ECU 20 performs various driving assistances using the distance image and the reference image output from the distance measuring system 100. For the reference image, various pattern matching is performed to recognize the state of the preceding vehicle, pedestrian, white line, traffic light, and the like.

運転支援は移動体によって様々であるが、例えば、対象物の横位置が自分である移動体の車幅と重なる場合、距離と相対速度から算出されるTTC(Time To Collision)に応じて警報や制動などを行う。また、衝突までの停止が困難な場合、衝突を回避する方向にステアリングを操舵する。   Driving assistance varies depending on the moving object, but for example, when the lateral position of the object overlaps with the vehicle width of the moving object that is the user, an alarm or an alarm is given according to TTC (Time To Collision) calculated from distance and relative speed. Do braking etc. If it is difficult to stop until the collision, the steering is steered in a direction to avoid the collision.

また、ECU20は、車速に応じた車間距離で先行車に追従走行する全車速車間距離制御を行う。先行車が停車したら移動体も停車させ、先行車が発進したら移動体も発進する。また、ECU20が白線認識などを行う場合、走行レーンの中央を走行するように操舵するレーンキーピング制御や走行レーンから逸脱するおそれがあると走行方向を走行レーンに向けて変更する逸脱防止制御等を行うことができる。   Further, the ECU 20 performs inter-vehicle speed inter-vehicle distance control that travels following the preceding vehicle with an inter-vehicle distance corresponding to the vehicle speed. When the preceding vehicle stops, the moving body also stops, and when the preceding vehicle starts, the moving body also starts. In addition, when the ECU 20 performs white line recognition or the like, lane keeping control for steering to travel in the center of the traveling lane, departure prevention control for changing the traveling direction toward the traveling lane when there is a risk of departure from the traveling lane, etc. It can be carried out.

また、停車時に進行方向に障害物がある場合、急発進を抑制することができる。例えば、シフトレバーの操作位置により判断される進行方向に障害物があり、かつ、アクセルペダルの操作量が大きい場合、エンジン出力を制限したり警告したりすることで被害を軽減する。   Moreover, when there is an obstacle in the traveling direction when the vehicle is stopped, sudden start can be suppressed. For example, when there is an obstacle in the traveling direction determined by the operation position of the shift lever and the amount of operation of the accelerator pedal is large, damage is reduced by limiting the engine output or warning.

ECU20には表示装置21が接続されている。表示装置21は、センターコンソールやダッシュボードなどに配置されたフラットパネルディスプレイ(液晶や有機ELなど)、又は、メータパネルに内蔵されたフラットパネルディスプレイなどである。あるいは、HUD(Head Up Display)でもよい。ECU20は、レーザレーダ測距部110又はステレオ画像演算部120に異常が生じた旨を表示装置21に表示する。表示例については実施例3にて説明する。   A display device 21 is connected to the ECU 20. The display device 21 is a flat panel display (such as liquid crystal or organic EL) disposed on a center console or a dashboard, or a flat panel display incorporated in a meter panel. Alternatively, HUD (Head Up Display) may be used. The ECU 20 displays on the display device 21 that an abnormality has occurred in the laser radar ranging unit 110 or the stereo image calculation unit 120. A display example will be described in Example 3.

なお、図13の構成は一例にすぎず、レーザレーダ測距部110とステレオ画像演算部120が一体に構成されていてもよい。また、ECU20がステレオ画像演算部120の機能を有していてもよい。   The configuration of FIG. 13 is merely an example, and the laser radar distance measuring unit 110 and the stereo image calculating unit 120 may be integrally configured. Further, the ECU 20 may have the function of the stereo image calculation unit 120.

<ブロックマッチングによる整数視差の演算>
図14を用いてブロックマッチングによる整数視差の演算について説明する。図14は、右カメラ11により撮像された基準画像420と、左カメラ12により撮像された比較画像410における、注目している画素p=(Px3,Py5)のコストとして、SAD(Sum of Absolute Difference)を算出する例を示した図である。なお、SADの計算式を(数1)に示す。
<Calculation of integer disparity by block matching>
Calculation of integer disparity by block matching will be described with reference to FIG. FIG. 14 shows the SAD (Sum of Absolute Difference) as the cost of the pixel of interest p = (Px3, Py5) in the reference image 420 captured by the right camera 11 and the comparison image 410 captured by the left camera 12. ) Is a diagram illustrating an example of calculating. A formula for calculating SAD is shown in (Equation 1).

基準画像420と比較画像410では、撮像位置が異なるため、撮像画像上の同じ位置の注目している画素p=(Px3,Py5)であっても、同じオブジェクトを指し示すことはなく、左右方向にずれた位置を指し示すことになる。このため、ブロックサイズを1×1画素とした場合のSADである、基準画像420上の注目している画素p=(Px3,Py5)の輝度値と、比較画像410上の注目している画素p=(Px3,Py5)の輝度値との差分値は、大きな値となる。   Since the reference image 420 and the comparison image 410 have different imaging positions, the same object is not pointed to even in the pixel p = (Px3, Py5) of interest at the same position on the captured image. It will point to the shifted position. Therefore, the SAD when the block size is 1 × 1 pixel, the luminance value of the focused pixel p = (Px3, Py5) on the reference image 420 and the focused pixel on the comparison image 410 The difference value from the luminance value of p = (Px3, Py5) is a large value.

ここで、比較画像410上の注目している画素pを1画素分、右方向にシフトさせる。つまり、視差d=1としたときのSADを算出する。具体的には、比較画像410上の注目している画素p=(Px3+1,Py5)の輝度値と、基準画像420上の注目している画素p=(Px3,Py5)の輝度値との差分値を算出する。なお、図14の例では、d=1の場合も、SADは大きな値となる。   Here, the pixel p of interest on the comparison image 410 is shifted rightward by one pixel. That is, the SAD is calculated when the parallax d = 1. Specifically, the difference between the luminance value of the pixel of interest p = (Px3 + 1, Py5) on the comparison image 410 and the luminance value of the pixel of interest p = (Px3, Py5) on the reference image 420. Calculate the value. In the example of FIG. 14, the SAD also becomes a large value when d = 1.

以下、同様に、d=2、3、・・・と変化させていき、それぞれにおいてSADを算出する。図14の例では、d=3の場合に、基準画像420の注目している画素p=(Px3,Py5)が指し示すオブジェクトと比較画像410の注目している画素p=(Px3+3,Py5)が指し示すオブジェクトとが同じとなる。このため、d=3とした場合のSADは、d=3とした場合以外のSADと比べて小さくなる。   Hereinafter, similarly, d = 2, 3,... Are changed, and SAD is calculated in each. In the example of FIG. 14, when d = 3, the object indicated by the pixel p = (Px3, Py5) in the reference image 420 and the pixel p = (Px3 + 3, Py5) in the comparison image 410 are The object pointed to is the same. For this reason, the SAD when d = 3 is smaller than the SAD other than when d = 3.

図15(a)は、ある注目している画素pの視差ごとのSADの一例を示す。SADがコストC(p,d)の一例となる。この注目している画素pではd=3において、SADが最小なため、視差dは3であると算出される。   FIG. 15A shows an example of SAD for each parallax of a pixel p of interest. SAD is an example of cost C (p, d). Since the SAD is minimum at the pixel p of interest at d = 3, the parallax d is calculated to be 3.

図15(b)は、別の注目している画素pの視差ごとのSADの一例を示す。図15(b)では視差dの変化に対するSADの変化が小さいため、距離演算部14が視差を抽出することができない。このように、ブロックマッチングだけでは、視差を特定することができない画素が生じえるため、距離演算部14は、視差を顕在化させるためにエネルギ計算処理(SGM伝播方式)を行う。   FIG. 15B shows an example of SAD for each parallax of another pixel p of interest. In FIG. 15B, since the change in SAD with respect to the change in parallax d is small, the distance calculation unit 14 cannot extract the parallax. As described above, pixels that cannot specify the parallax can be generated only by block matching. Therefore, the distance calculation unit 14 performs an energy calculation process (SGM propagation method) to make the parallax manifest.

なお、図15のように視差ごとのSAD(コストC(p,d))が算出されたら、小数視差を求めることが好適である。小数視差を求める方法として高次多項式推定(6次)、高次多項式推定(4次)、又はパラボラフィッティング等を使用する算出方法がある。   In addition, if SAD (cost C (p, d)) for every parallax is calculated like FIG. 15, it is suitable to obtain | require decimal parallax. There are calculation methods using high-order polynomial estimation (sixth order), high-order polynomial estimation (fourth order), parabola fitting, or the like as a method of obtaining the decimal parallax.

SADは、上記のように、輝度値の差の絶対値を計算しその和を相関値とする演算である。画素ブロックが類似するほど値が小さくなる。 As described above, SAD is an operation that calculates the absolute value of the difference in luminance value and uses the sum as the correlation value. The smaller the pixel block is, the smaller the value is.

また、ブロックマッチングではSAD以外に、SSD(Sum of Squared Difference)、NCC(Normalized Cross Correlation)、ZNCC(Zero means Normalized Cross Correlation)などの演算方法を採用してよい。   In block matching, an arithmetic method such as SSD (Sum of Squared Difference), NCC (Normalized Cross Correlation), or ZNCC (Zero means Normalized Cross Correlation) may be employed in addition to SAD.

SSDは輝度値の差の二乗を計算し、その和を相関値とする演算である。画素ブロックが類似するほど値が小さくなる。 The SSD is an operation for calculating the square of the difference between luminance values and using the sum as a correlation value. The smaller the pixel block is, the smaller the value is.

NCCは分子で,輝度値の内積を計算する。似た輝度値であれば内積の値が大きくなる。分母は分子の数値を正規化するための数値であり、画素ブロックが類似するほど値が大きくなる。NCCは最大で1,最小で0の値を取る。NCCは正規化相互相関ともいう。 NCC is a numerator and calculates the inner product of luminance values. If the luminance value is similar, the inner product value increases. The denominator is a numerical value for normalizing the numerical value of the numerator, and the value increases as the pixel blocks are similar. NCC takes a maximum value of 1 and a minimum value of 0. NCC is also referred to as normalized cross correlation.

ZNCCは平均値を引いた後の正規化相互相関である。周波数的に考えると直流成分を取り除くことに相当し、明るさに違いのある画像の比較に有効である。なお、Mは水平方向の画素数、Nは垂直方向の画素数である。 ZNCC is the normalized cross-correlation after subtracting the average value. This is equivalent to removing the DC component in terms of frequency, and is effective for comparing images with different brightness. M is the number of pixels in the horizontal direction, and N is the number of pixels in the vertical direction.

この他、ZSAD(Zero means Sun of Absolute Difference)又はZSSD(Zero means Sum of Squared Difference)を用いてもよい。ZSADは平均値を引いた後のSADであり、ZSSDは平均値を引いた後のSSDである。   Besides this, it is also possible to use ZSAD (Zero means Sun of Absolute Difference) or ZSSD (Zero means Sum of Squared Difference). ZSAD is the SAD after subtracting the average value, and ZSSD is the SSD after subtracting the average value.

<SGM伝播方式>
距離演算部14は、SGM伝播方式と称されるアルゴリズムを用いて、伝播コストLrを算出し、当該伝播コストLrを用いて注目している画素pのエネルギーコストS(p,d)を算出するエネルギ計算処理を行う。なお、SGM伝播方式はデンスアルゴリズムの一形態である。
<SGM propagation method>
The distance calculation unit 14 calculates the propagation cost Lr using an algorithm called SGM propagation method, and calculates the energy cost S (p, d) of the pixel p of interest using the propagation cost Lr. Perform energy calculation processing. The SGM propagation method is a form of dense algorithm.

まず、SGM伝播方式を用いて伝播コストLrを算出する処理について説明する。図16は、SGM伝播方式を用いて伝播コストLrを算出する処理を模式的に示した図である。   First, the process of calculating the propagation cost Lr using the SGM propagation method will be described. FIG. 16 is a diagram schematically showing processing for calculating the propagation cost Lr using the SGM propagation method.

図16の例では、注目している画素pである画素1100に対して、4方向の伝播コストLrを求める場合を示している。具体的には、画素1100に対して、矢印1111方向の伝播コストL1と、矢印1112方向の伝播コストL2と、矢印1113方向の伝播コストL3と、矢印1114方向の伝播コストL4とを求める場合を示している。なお、画素1100に対して求める伝播コストの方向(r)は、4方向に限定されるものではなく、例えば、8方向であっても、あるいは2方向であってもよい。   The example of FIG. 16 shows a case where the propagation cost Lr in four directions is obtained for the pixel 1100 that is the pixel p of interest. Specifically, the case where the propagation cost L1 in the direction of the arrow 1111, the propagation cost L2 in the direction of the arrow 1112, the propagation cost L3 in the direction of the arrow 1113, and the propagation cost L4 in the direction of the arrow 1114 are obtained for the pixel 1100. It shows. The direction (r) of the propagation cost to be obtained for the pixel 1100 is not limited to four directions, and may be eight directions or two directions, for example.

図16に示すように、矢印1111方向の伝播コストL1は、下式により求めることができる。   As shown in FIG. 16, the propagation cost L1 in the direction of arrow 1111 can be obtained by the following equation.

…(2)
ただし、pは画素1100の座標を、dは視差を表している。このように、伝播コストL1(p,d)は、画素1100のコストC(p,d)と、画素1100の左側1画素に位置する画素の各視差(d−1〜d+1)での伝播コストとによって算出することができる。つまり、矢印1111方向の伝播コストは、左方向から右方向へと順次、伝播コストが算出されていくことになる。なお、左方向から右方向へと伝播コストを伝播させていく際の伝播間隔は、1画素に限定されるものではない。つまり、画素1100の左側a画素に位置する画素の各視差での伝播コストを用いて、伝播コストL1(p,d)を算出するように構成してもよい。
... (2)
Here, p represents the coordinates of the pixel 1100, and d represents the parallax. As described above, the propagation cost L1 (p, d) is the propagation cost at the parallax (d−1 to d + 1) of the cost C (p, d) of the pixel 1100 and the pixel located at the left one pixel of the pixel 1100. And can be calculated. That is, the propagation cost in the direction of the arrow 1111 is calculated sequentially from the left direction to the right direction. The propagation interval when propagating the propagation cost from the left direction to the right direction is not limited to one pixel. That is, the propagation cost L1 (p, d) may be calculated using the propagation cost at each parallax of the pixel located on the left side a pixel of the pixel 1100.

同様に、矢印1112方向の伝播コストL2は、上方向から下方向へと順次算出されていくことになる。また、矢印1113方向の伝播コストL3は、右方向から左方向へと順次算出され、矢印1114方向の伝播コストL4は、下方向から上方向へと順次算出されていくことになる。   Similarly, the propagation cost L2 in the direction of the arrow 1112 is sequentially calculated from the upper direction to the lower direction. Further, the propagation cost L3 in the direction of the arrow 1113 is sequentially calculated from the right direction to the left direction, and the propagation cost L4 in the direction of the arrow 1114 is sequentially calculated from the lower direction to the upper direction.

つづいて、エネルギ計算処理のうち、当該伝播コストLrを用いて注目している画素pのエネルギーコストS(p,d)を算出する処理について説明する。   Subsequently, in the energy calculation process, a process of calculating the energy cost S (p, d) of the pixel p of interest using the propagation cost Lr will be described.

上記のようにして、各画素について算出された各方向からの伝播コストに基づいて、各画素のエネルギーコストS(p,d)が下式により算出される。   As described above, the energy cost S (p, d) of each pixel is calculated by the following equation based on the propagation cost from each direction calculated for each pixel.

…(3)
したがって、図16の例では、S(p,d)=L1(p,d)+L2(p,d)+L3(p,d)+L4(p,d)により算出することができる。
... (3)
Therefore, in the example of FIG. 16, it can be calculated by S (p, d) = L1 (p, d) + L2 (p, d) + L3 (p, d) + L4 (p, d).

<本実施形態における距離の算出方法>
続いて、図17を参照して本実施形態の測距システム100が画素ごとの距離値の算出手順を説明する。図17は、測距システム100の動作手順を説明するフローチャート図の一例である。
<Method of calculating distance in the present embodiment>
Subsequently, the procedure of calculating the distance value for each pixel by the distance measuring system 100 according to the present embodiment will be described with reference to FIG. FIG. 17 is an example of a flowchart for explaining the operation procedure of the distance measuring system 100.

(ステップS1〜S4)
ステップS1に示すように、レーザレーダ測距部110が距離情報を取得する。これと並行してステレオ画像演算部120の右カメラ11が基準画像を、左カメラ12が比較画像を撮像する(S2)。歪み補正部13は視差以外の相違がなくなるようにそれぞれに歪み補正を行う(S3)。次に、ステレオ画像演算部120がステレオマッチングコストCST(p、Z)を算出する(S4)。
(Steps S1 to S4)
As shown in step S1, the laser radar distance measuring unit 110 acquires distance information. In parallel with this, the right camera 11 of the stereo image calculation unit 120 captures a reference image, and the left camera 12 captures a comparison image (S2). The distortion correction unit 13 performs distortion correction for each so that there is no difference other than parallax (S3). Next, the stereo image calculation unit 120 calculates a stereo matching cost C ST (p, Z) (S4).

なお、ステップS1〜S4は同期して行われてもよいが、ステレオ画像演算部120はレーザレーダ測距部110の最新の距離情報を用いることにして非同期に行われてもよい。   Note that steps S1 to S4 may be performed synchronously, but the stereo image calculation unit 120 may be performed asynchronously by using the latest distance information of the laser radar ranging unit 110.

図18は、ステレオマッチングコストCST(p,Z)の一例を示す図である。すなわち、ステレオマッチングで得た視差空間のコストがZ空間のステレオマッチングコストCST(p,Z)に変換されている。このため、Z空間の等間隔にステレオマッチングコストCST(p,Z)が得られない。そこで、距離演算部14はステレオマッチングで得たコストを補間する。図18では丸がステレオマッチングで得たコストであり、四角形が補間で得たコストである。補間方法は、曲線近似に適した方法であればよく、例えば放物線fitting、高次多項式、スプライン曲線などを適用できる。図18では、補間により例えば0.5メートルごとにステレオマッチングコストCST(p,Z)が算出されている。なお、図18のoffsetは距離Zを0.5メートルごとに求めるための端数である。 FIG. 18 is a diagram illustrating an example of the stereo matching cost C ST (p, Z). That is, the cost of the parallax space obtained by stereo matching is converted into the stereo matching cost C ST (p, Z) of Z space. For this reason, the stereo matching cost C ST (p, Z) cannot be obtained at equal intervals in the Z space. Therefore, the distance calculation unit 14 interpolates the cost obtained by stereo matching. In FIG. 18, the circle is the cost obtained by stereo matching, and the square is the cost obtained by interpolation. The interpolation method may be any method suitable for curve approximation, and for example, parabolic fitting, high-order polynomial, spline curve, or the like can be applied. In FIG. 18, the stereo matching cost C ST (p, Z) is calculated, for example, every 0.5 meters by interpolation. Note that offset in FIG. 18 is a fraction for obtaining the distance Z every 0.5 meters.

(ステップS5)
次に、距離演算部14は、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合して、コストC(p,Z)を算出する。式では以下のように表すことができる。
C(p,Z)=EST×CST(p,Z)+ELI×CLI(p,Z) …(4)
EST:ステレオマッチングコストの係数(重み)
ELI:LIDARコストの係数(重み)
まず、図19,図20に基づいて、LIDARコストCLI(p,Z)を説明する。図19はLIDARコストCLI(p,Z)の一例を示す図であり、図20はLIDARコストCLI(p,Z)を補足して説明するための図である。また、式(5)はLIDARコストCLI(p,Z)の一例を示す。
(Step S5)
Next, the distance calculation unit 14 integrates the stereo matching cost C ST (p, Z) and the LIDAR cost C LI (p, Z) to calculate the cost C (p, Z). In the formula, it can be expressed as follows.
C (p, Z) = EST x C ST (p, Z) + ELI x C LI (p, Z) (4)
EST: coefficient (weight) of stereo matching cost
ELI: LIDAR cost factor (weight)
First, the LIDAR cost C LI (p, Z) will be described with reference to FIGS. FIG. 19 is a diagram illustrating an example of the LIDAR cost C LI (p, Z), and FIG. 20 is a diagram for supplementarily explaining the LIDAR cost C LI (p, Z). Equation (5) shows an example of the LIDAR cost C LI (p, Z).

…(5)
:レーザの照射方向に対応する画素
p :rを含むrの周囲の画素
σ :LIDARコストCLI(p,Z)の広がりを定めるパラメータ
A :LIDARコストCLI(p,Z)の深さを定めるパラメータ(0〜1)
本願の発明者は、距離画像の出力前にレーザレーダ測距部110の距離情報をステレオマッチングコストCST(p,Z)に統合させるため、新たにLIDARコストCLI(p,Z)を設定した。図19に示すように、LIDARコストCLI(p,Z)はp=rの光線中心の画素で最も小さく、rから周囲に離れるほどσにしたがって大きくなる。式(5)から明らかなように、Aが1の場合、画素rのLIDARコストCLI(p,Z)は0である。一方、rから遠く離れた周辺部の画素ではLIDARコストCLI(p,Z)が1になる。
... (5)
r 0: pixels corresponding to the irradiation direction of the laser p: surrounding pixels of r 0 containing r 0 sigma: LIDAR cost C LI (p, Z) parameter defines the spread of A: LIDAR cost C LI (p, Z) Parameter to determine the depth of the (0-1)
The inventor of the present application newly sets a LIDAR cost C LI (p, Z) in order to integrate the distance information of the laser radar ranging unit 110 into the stereo matching cost C ST (p, Z) before outputting the distance image. did. As shown in FIG. 19, the LIDAR cost C LI (p, Z) is the smallest at the pixel at the center of the light ray of p = r 0 , and becomes larger according to σ as it gets away from r 0 . As is clear from the equation (5), when A is 1, the LIDAR cost C LI (p, Z) of the pixel r 0 is 0. On the other hand, LIDAR cost C LI (p, Z) becomes 1 at peripheral pixels far from r 0 .

一方、図20の1矩形は画素を示しており、中心の画素rと、レーザ光の1光線の横分解能と縦分解能が画素単位で示されている。つまり、レーザ光の1光線が広がる範囲が画素数で示されている。レーザ光の1光線が広がる範囲のうち横方向を横分解能、縦方向を縦分解能といい、図20では横分解能が5画素、縦分解能が9画素である。1つのレーザ光は遠方に行くほど広がる。しかし、ステレオカメラで撮像される面積(画素数)はほぼ一定である。遠方に行くにしたがってレーザ光が広がっても遠方のレーザ光は小さく見えるためである。したがって、レーザレーダ測距部110が中心の画素rについて測距した距離Zに関わりなく、一定の横分解能と縦分解能の画素pについて式(5)でLIDARコストCLI(p,Z)を算出すればよい。 On the other hand, one rectangle in FIG. 20 indicates a pixel, and the horizontal resolution and the vertical resolution of the central pixel r 0 and one beam of laser light are shown in pixel units. That is, the range in which one light beam of laser light spreads is indicated by the number of pixels. In the range in which one light beam of laser light spreads, the horizontal direction is called horizontal resolution and the vertical direction is called vertical resolution. In FIG. 20, the horizontal resolution is 5 pixels and the vertical resolution is 9 pixels. One laser beam spreads farther away. However, the area (number of pixels) captured by the stereo camera is almost constant. This is because even if the laser beam spreads as it goes further, the far laser beam appears smaller. Therefore, the LIDAR cost C LI (p, Z) is expressed by the equation (5) for the pixel p having a constant horizontal resolution and vertical resolution regardless of the distance Z measured by the laser radar ranging unit 110 for the center pixel r 0. What is necessary is just to calculate.

式(5)によりLIDARコストCLI(p,Z)が求められると、距離演算部14はステレオマッチングコストCST(p,Z)にLIDARコストCLI(p,Z)を投票する。図21は、ステレオマッチングコストCST(p,Z)へのLIDARコストCLI(p,Z)の投票を説明する図の一例である。レーザ光の照射方向に対応する画素rの距離Zがレーザレーダ測距部110により得られているので、画素rのこの距離ZにLIDARコストCLI(p,Z)を投票する。投票とは加算という処理に相当する。画素rの場合、LIDARコストCLI(p,Z)は1−A=0(Aが1の場合)である。 When the LIDAR cost C LI (p, Z) is obtained by the equation (5), the distance calculation unit 14 votes the LIDAR cost C LI (p, Z) for the stereo matching cost C ST (p, Z). FIG. 21 is an example of a diagram illustrating voting of LIDAR cost C LI (p, Z) to stereo matching cost C ST (p, Z). Since the distance Z of the pixel r 0 corresponding to the irradiation direction of the laser light is obtained by the laser radar ranging unit 110, the LIDAR cost C LI (p, Z) is voted for this distance Z of the pixel r 0 . Voting corresponds to the process of addition. In the case of the pixel r 0 , the LIDAR cost C LI (p, Z) is 1−A = 0 (when A is 1).

距離演算部14は、同様の投票を、画素rを中心とする横分解能と縦分解能に含まれる画素pについて行う。ただし、LIDARコストCLI(p,Z)はrとpとの距離に応じて式(5)により算出された値となる。 The distance calculation unit 14, a similar voting is performed for the pixels p included in the horizontal resolution and vertical resolution around the pixel r 0. However, the LIDAR cost C LI (p, Z) is a value calculated by the equation (5) according to the distance between r 0 and p.

このように、本実施形態ではZ空間のまま、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合できる。画素rのコストが最も小さくなり、画素rの周囲の画素のコストが画素rより高くなるので、横分解能と縦分解能のレーザ光の照射方向に対応する画素rのコストを小さく、周囲の画素のコストを高くできる。 As described above, in the present embodiment, the stereo matching cost C ST (p, Z) and the LIDAR cost C LI (p, Z) can be integrated in the Z space. Becomes smallest cost of pixel r 0, the cost of the surrounding pixels of the pixel r 0 is higher than the pixel r 0, reduce the cost of the pixels r 0 corresponding to the irradiation direction of the laser beam in the lateral resolution and vertical resolution, The cost of surrounding pixels can be increased.

なお、図19のLIDARコストCLI(p,Z)の形状は一例に過ぎない。例えば、画素rから一定範囲で最小のコストを示す円柱形状でもよいし、図19と似ているが逆三角形でもよい。また、式(4)ではステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を加算しているが、ステレオマッチングコストCST(p,Z)からLIDARコストCLI(p,Z)を減算してもよい。あるいは、LIDARコストCLI(p,Z)が負値でもよい。 The shape of the LIDAR cost C LI (p, Z) in FIG. 19 is merely an example. For example, a cylindrical shape showing the minimum cost within a certain range from the pixel r 0 may be used, or it may be an inverted triangle similar to FIG. Further, in the formula (4), the stereo matching cost C ST (p, Z) and the LIDAR cost C LI (p, Z) are added, but from the stereo matching cost C ST (p, Z), the LIDAR cost C LI ( p, Z) may be subtracted. Alternatively, LIDAR cost C LI (p, Z) may be a negative value.

ステップS5の処理について図22〜図25を用いて補足する。以下では、レーザの横分解能と縦分解能範囲でも周囲になるほど距離情報の正確性が低下することを説明する。   The processing in step S5 will be supplemented with reference to FIGS. In the following, it will be described that the accuracy of the distance information decreases as the distance from the horizontal resolution and the vertical resolution range of the laser increases.

まず、図22は物体面の画素数を説明する図の一例である。図22(a)はある物体の画素数を示し、図22(b)は物体の大きさと物体面の画素数の対応を示す。物体面とは画像データにおいて物体が占める範囲である。   First, FIG. 22 is an example for explaining the number of pixels on the object plane. FIG. 22A shows the number of pixels of a certain object, and FIG. 22B shows the correspondence between the size of the object and the number of pixels on the object surface. The object plane is a range occupied by an object in the image data.

横幅N〔m〕、縦幅M〔m〕の物体が距離Z〔m〕に存在する。焦点距離Fを使うことで、画像データにおける横方向の画素数X、縦方向の画素数Yが算出される。ptは画素ピッチである。
X=F・N/(Z・pt)
Y=F・M/(Z・pt)
図23はレーザの分解能による距離Zでの画素数xL、yLの算出を説明する図の一例である。レーザの分解能を横θx〔deg〕、縦θy〔deg〕とする。
レーザの照射面の横幅AはA=Ztan(θx/2)×2
レーザの照射面の縦幅BはA=Ztan(θy/2)×2
横幅Aが画像上で占める画素数xLは以下のようになる。
xL=F・A/Z=Ztan(θx/2)×2=2(F/pt)tan(θx/2)〔ピクセル〕
縦幅Bが画像上で占める画素数yLは以下のようになる。
yL=F・B/Z=Ztan(θy/2)×2=2(F/pt)tan(θy/2)〔ピクセル〕
xL、yLの算出結果から明らかなように、照射面は距離Zに応じて広がっていくが、画像上では距離Zによらず一定の画素数になる。ただし、これは説明を容易にするため、レーザ光線の射出サイズが点光源であると仮定した場合である。レーザの射出面積があるサイズを持っている場合は、近距離側では対応する画素サイズが大きく、遠方になるにつれて一定値に収束する。
An object having a horizontal width N [m] and a vertical width M [m] exists at a distance Z [m]. By using the focal length F, the number X of pixels in the horizontal direction and the number Y of pixels in the vertical direction in the image data are calculated. pt is a pixel pitch.
X = F · N / (Z · pt)
Y = F · M / (Z · pt)
FIG. 23 is an example of a diagram for explaining the calculation of the number of pixels xL and yL at the distance Z based on the resolution of the laser. The resolution of the laser is horizontal θx [deg] and vertical θy [deg].
The width A of the irradiation surface of the laser is A = Ztan (θx / 2) × 2
The vertical width B of the laser irradiation surface is A = Ztan (θy / 2) × 2
The number of pixels xL occupied by the width A on the image is as follows.
xL = F · A / Z = Ztan (θx / 2) × 2 = 2 (F / pt) tan (θx / 2) [pixel]
The number of pixels yL occupied by the vertical width B on the image is as follows.
yL = F · B / Z = Ztan (θy / 2) × 2 = 2 (F / pt) tan (θy / 2) [pixel]
As is clear from the calculation results of xL and yL, the irradiation surface spreads according to the distance Z, but the number of pixels is constant regardless of the distance Z on the image. However, this is a case where it is assumed that the emission size of the laser beam is a point light source to facilitate the description. When the emission area of the laser has a certain size, the corresponding pixel size is large on the short distance side, and converges to a constant value as it goes further.

これらから物体面をレーザ光が照射している場合、物体面が照射面を包含する距離が求まる。図24は物体面が照射面を包含する距離を説明する図の一例である。
X>xL かつ Y>yLなので、
F・N/(Z・pt)>2(F/pt)tan(θx/2) かつ
F・M/(Z・pt)>2(F/pt)tan(θy/2)
したがって、N/(2tan(θx/2)>Z かつ、M/(2tan(θy/2)>Z
が物体面が照射面を包含する距離の条件式である。
・移動体の場合、
N=M=1.8m θx=θy=0.6〔deg〕から171.9>Z
・物の場合
N=0.25 M=1.6m θx=0.1 θy=0.6〔deg〕から143.2>Z
したがって、遠距離になると図24に示すように物体面の方が照射面よりも大きくなり、物体面のどこに反射したのか不確定になる。図25を用いてより詳細に説明する。
From these, when the laser beam is applied to the object surface, the distance that the object surface includes the irradiation surface can be obtained. FIG. 24 is an example of a diagram illustrating the distance in which the object plane includes the irradiation surface.
Since X> xL and Y> yL,
F · N / (Z · pt)> 2 (F / pt) tan (θx / 2) and F · M / (Z · pt)> 2 (F / pt) tan (θy / 2)
Therefore, N / (2 tan (θ x / 2)> Z and M / (2 tan (θ y / 2)> Z)
Is a conditional expression of the distance in which the object surface includes the irradiation surface.
・ In the case of mobile
N = M = 1.8 m θx = θy = 0.6 [deg] to 171.9> Z
· In the case of objects N = 0.25 M = 1.6 m θ x = 0.1 θ y = 0.6 [deg] to 143.2> Z
Therefore, at a long distance, as shown in FIG. 24, the object surface becomes larger than the irradiation surface, and it is uncertain where the object surface is reflected. This will be described in more detail with reference to FIG.

図25は、遠距離の場合と近距離の場合のそれぞれで照射面と物体面の関係を説明する図である。図25(a)は近距離の場合を示し、図24にて説明したように物体面の方が照射面より大きい。レーザの照射面は画素数に換算するとxL、yLの大きさに過ぎないため物体面XYのどこに反射するかは分からない。これは、照射面内の周囲になるほどレーザレーダ測距部110が測距する距離情報の信頼性が落ちることを意味する。このため、図19にて説明したように、レーザの照射面の周囲でLIDARコストCLI(p,Z)を大きくする(信頼度を小さくする)ことが有効になる。 FIG. 25 is a view for explaining the relationship between the irradiation surface and the object surface in each of the long distance and the short distance. FIG. 25 (a) shows the case of a short distance, and the object plane is larger than the irradiation plane as described in FIG. When the laser irradiation surface is converted into the number of pixels, it is only the size of xL and yL, so it is not known where it is reflected on the object surface XY. This means that the reliability of the distance information measured by the laser radar distance measuring unit 110 decreases as the distance from the irradiation surface increases. For this reason, as described with reference to FIG. 19, it is effective to increase the LIDAR cost C LI (p, Z) (reduce the reliability) around the irradiation surface of the laser.

図25(b)は遠距離の場合、照射面の方が物体面よりも大きくなることを示している。この場合、レーザはXYで表す物体面で反射できるとは限らず、後方に抜ける可能性が生じる。この場合は、いわゆるマルチパルスとなるため、複数の物体を検出できる可能性がある。マルチパルスが生じた場合の処理については後述する。   FIG. 25B shows that the irradiation surface is larger than the object surface at a long distance. In this case, the laser may not be reflected on the object plane represented by XY, and may possibly escape backward. In this case, there is a possibility that a plurality of objects can be detected because of so-called multi-pulse. Processing when multipulses occur will be described later.

(ステップS6)
次に、距離演算部14は伝播コストLr(p,Z)を算出する。伝播コストLr(p,Z)の算出式を以下に示す。
(Step S6)
Next, the distance calculation unit 14 calculates the propagation cost Lr (p, Z). The formula for calculating the propagation cost Lr (p, Z) is shown below.

…(6)
伝播コストLr(p,Z)の第1項はステップS5で算出された、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)が統合されたコストC(p,Z)である。第2項はZ空間で行われるSGM伝播方式による伝播コストである。第1項と第2項により、伝播コストLr(p,Z)が算出される。
... (6)
The first term of the propagation cost Lr (p, Z) is the cost C (p, Z) obtained by integrating the stereo matching cost C ST (p, Z) and the LIDAR cost C LI (p, Z) calculated in step S5. ). The second term is the propagation cost by the SGM propagation method performed in the Z space. The propagation cost Lr (p, Z) is calculated from the first and second terms.

なお、本実施形態において、Z空間で行われるSGM伝播方式による伝播コストは必須でなく、SGM伝播方式による伝播コストは算出されなくてもよい。   In the present embodiment, the propagation cost according to the SGM propagation method performed in the Z space is not essential, and the propagation cost according to the SGM propagation method may not be calculated.

(ステップS7)
距離演算部14は、全ての画素で伝播コストLr(p,Z)を算出したか否かを判断する。全ての画素の処理が終了するまでは、ステップS5,S6を繰り返し実行する。
(Step S7)
The distance calculation unit 14 determines whether the propagation cost Lr (p, Z) has been calculated for all the pixels. Steps S5 and S6 are repeatedly executed until the processing of all the pixels is completed.

(ステップS8)
全ての画素で伝播コストLr(p,Z)を算出すると、距離演算部14はエネルギーコストS(p,Z)を算出する。
S(p,Z)=ΣLr(p,Z) …(7)
図26は、エネルギーコストS(p,Z)の算出方法を説明する図の一例である。画素ごとに伝播コストLr(p,Z)が算出されたが、ある画素には周囲の伝播コストLr(p,Z)が影響していると考えられる。そこで、注目している画素の周囲の伝播コストLr(p,Z)を重ね合わせることで、注目している画素のより正確な伝播コストLr(p,Z)を算出する。
(Step S8)
When the propagation cost Lr (p, Z) is calculated for all pixels, the distance calculation unit 14 calculates the energy cost S (p, Z).
S (p, Z) = ΣLr (p, Z) (7)
FIG. 26 is an example of a diagram illustrating a method for calculating the energy cost S (p, Z). Although the propagation cost Lr (p, Z) was calculated for each pixel, it is considered that the surrounding propagation cost Lr (p, Z) affects a certain pixel. Therefore, the more accurate propagation cost Lr (p, Z) of the pixel of interest is calculated by superimposing the propagation costs Lr (p, Z) around the pixel of interest.

図26では周囲8画素の伝播コストLr(p,Z)が重ね合わされている。すなわち、
S(p,Z)=L0(p,Z)+L45(p,Z)+L90(p,Z)+L135(p,Z)+L180(p,Z)+L225(p,Z)+L270(p,Z)+L315(p,Z)、 …(8)
図27は、エネルギーコストS(p,Z)の算出方法を模式的に示す図である。式(8)に示すように、注目している画素の周囲8画素の伝播コストLr(p,Z)をZ空間で重ね合わせる。これにより、注目している画素のエネルギーコストS(p,Z)が得られる。
In FIG. 26, the propagation costs Lr (p, Z) of the surrounding 8 pixels are superimposed. That is,
S (p, Z) = L 0 (p, Z) + L 45 (p, Z) + L 90 (p, Z) + L 135 (p, Z) + L 180 (p, Z) + L 225 (p, Z) + L 270 (p, Z) + L 315 (p, Z), ... (8)
FIG. 27 is a diagram schematically illustrating a method for calculating the energy cost S (p, Z). As shown in Expression (8), the propagation costs Lr (p, Z) of 8 pixels around the pixel of interest are overlapped in the Z space. Thereby, the energy cost S (p, Z) of the pixel of interest is obtained.

なお、周囲8画素の伝播コストLr(p,Z)の重ね合わせは一例に過ぎず、4画素、5画素、又は16画素などの周囲の何画素の伝播コストLr(p,Z)を重ね合わせるかは、演算負荷と距離の正確さを考慮して決定されてよい。また、伝播コストLr(p,Z)の重ね合わせを一切行わなくてもよい。   Note that the superposition of the propagation costs Lr (p, Z) of the surrounding 8 pixels is merely an example, and the propagation costs Lr (p, Z) of how many pixels around the pixels, such as 4 pixels, 5 pixels, or 16 pixels, are overlaid. This may be determined in consideration of the calculation load and the accuracy of the distance. Further, it is not necessary to superimpose the propagation cost Lr (p, Z) at all.

(ステップS9)
距離演算部14は、エネルギーコストS(p,Z)が最小となる距離Zを決定する。距離Zが注目している画素の距離値である。
(Step S9)
The distance calculation unit 14 determines the distance Z 0 that minimizes the energy cost S (p, Z). The distance Z 0 is the distance value of the pixel of interest.

図28はエネルギーコストS(p,Z)が最小となる距離Z0の算出方法を説明する図の一例である。エネルギーコストS(p,Z)が最小となるZは注目している画素の距離値として最も確からしいと推定される。   FIG. 28 is an example of a diagram illustrating a method for calculating the distance Z0 at which the energy cost S (p, Z) is minimized. It is estimated that Z at which the energy cost S (p, Z) is minimum is most likely as the distance value of the pixel of interest.

なお、高次多項式推定(6次)、高次多項式推定(4次)、又はパラボラフィッティング等を使用して、少数以下の距離Zを算出してもよい。   Note that the high-order polynomial estimation (sixth order), the high-order polynomial estimation (fourth order), parabola fitting, or the like may be used to calculate the distance Z of a few or less.

(ステップS10)
全ての画素で算出されると図17の処理は終了する。
(Step S10)
When the calculation is performed for all the pixels, the process of FIG. 17 ends.

<マルチパルスについて>
図25(b)で説明したマルチパルスが生じた場合の処理について説明する。図29はマルチパルスの処理を説明する図の一例である。図29(a)は、レーザレーダ測距部110のレーザの照射範囲を上方から見た図であり、図29(b)は距離Zに対する受光レベルを説明する図の一例である。
<About multi-pulse>
The process in the case where the multi-pulse described in FIG. 25 (b) is generated will be described. FIG. 29 is an example of a diagram for explaining multi-pulse processing. FIG. 29A is a view of the laser irradiation range of the laser radar distance measuring unit 110 as viewed from above, and FIG. 29B is an example of a diagram for explaining the light reception level with respect to the distance Z.

図29(a)に示すように物体面よりもレーザの照射面の方が大きい場合、レーザレーダ測距部110はマルチパルスにより複数のオブジェクトO1、O2からの反射光を受光する。図29(b)に示すように、距離Zに対し受光レベルをグラフ化すると、オブジェクトO1,O2がある距離Z1,Z2で受光レベルが大きくなる。したがって、複数の物体があることが検出される。一般にレーザレーダ測距部110は受光レベルが閾値以上の距離に物体があると判断するので、図29のような状況では、1つの光線で異なる距離にある2つの物体の距離を検出できる。   As shown in FIG. 29A, when the irradiation surface of the laser is larger than the object surface, the laser radar distance measuring unit 110 receives reflected light from a plurality of objects O1 and O2 by multi-pulse. As shown in FIG. 29B, when the light reception level is graphed with respect to the distance Z, the light reception level becomes large at the distances Z1 and Z2 at which the objects O1 and O2 exist. Therefore, it is detected that there are a plurality of objects. Generally, the laser radar distance measuring unit 110 determines that the light receiving level is an object at a distance equal to or greater than the threshold, so in the situation as shown in FIG. 29, one light ray can detect the distance between two objects at different distances.

このように1つの光線で異なる距離にある2つの物体の距離が得られた場合、距離演算部14はそれぞれについてステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合させる。すなわち、レーザ光の照射方向に対応する画素rと周囲の画素のステレオマッチングコストCST(p,Z)の距離Z1,Z2に、式(5)で算出されるLIDARコストCLI(p,Z)を加算する。 Thus, when the distance between two objects at different distances is obtained with one ray, the distance calculation unit 14 calculates the stereo matching cost C ST (p, Z) and the LIDAR cost C LI (p, Z) for each. Integrate. That is, the LIDAR cost C LI (p, P, calculated by the equation (5) is added to the distances Z1, Z2 between the stereo matching cost C ST (p, Z) of the pixel r 0 corresponding to the irradiation direction of the laser light and the surrounding pixels. Add Z).

従来では、1つの注目画素に2つの距離Z1、Z2を統合させることは困難であったが、本実施形態ではZ空間で統合させるため、マルチパルスが生じた場合に、2つの距離を適切に扱うことができる。図29では式(5)をそのまま適用すると説明したが、例えば、複数の距離が検出された場合、距離の曖昧さを加味して式(5)のLIDARコストCLI(p,Z)がより大きくなるような係数を乗じてもよい。 Conventionally, it has been difficult to integrate the two distances Z1 and Z2 into one target pixel. However, in this embodiment, in order to integrate in the Z space, when multiple pulses occur, the two distances are appropriately set. It can be handled. In FIG. 29, it has been described that the expression (5) is applied as it is. However, for example, when a plurality of distances are detected, the LIDAR cost C LI (p, Z) of the expression (5) is more determined in consideration of the ambiguity of the distance. You may multiply by the coefficient which becomes large.

<レーザによる測距の別の例>
図12等で説明した本実施形態のレーザレーダ測距部110はTOF(Time Of Flight)方式の測距方法である。これに対し、FCM(Fast Chirp Modulation)やFMCW(Frequency Modulation Continuous Wave)方式と呼ばれる測距方式がある。FCMやFMCWは、送信波と受信波で周波数がわずかに異なることで生じる混合波のうなり信号の周波数を距離に換算する方式である。
<Another example of laser ranging>
The laser radar distance measuring unit 110 of the present embodiment described with reference to FIG. 12 is a TOF (Time Of Flight) type distance measuring method. On the other hand, there are distance measuring methods called FCM (Fast Chirp Modulation) and FMCW (Frequency Modulation Continuous Wave) methods. FCM and FMCW are systems that convert the frequency of a beat signal of a mixed wave, which is generated when the frequency is slightly different between a transmission wave and a reception wave, into a distance.

図30、図31を用いて、FCM方式による測距方式を説明する。図30は、送信波、受信波、及び、反射波のモデルを示す。ミリ波送受信装置25が送信した送信波が物体26で反射した反射波が、受信波として受信されている。ミリ波送受信装置25と物体との距離はRである。   A distance measurement method based on the FCM method will be described with reference to FIGS. FIG. 30 shows models of a transmission wave, a reception wave, and a reflected wave. A reflected wave obtained by reflecting the transmission wave transmitted from the millimeter wave transmitting / receiving apparatus 25 on the object 26 is received as a reception wave. The distance between the millimeter wave transceiver 25 and the object is R.

図31は、送信波と受信波の周波数を模式的に示す。FCM方式で使用する信号では、時間の経過に応じて周波数を直線的に増大させる。図31(a)は徐々に周波数が増加する送信波と受信波を示している。このような時間的に周波数が変化する信号をチャープという。図31(a)に示すように振幅が一定のまま、時間と共に送信波27と受信波28の周波数が増大している。なお、受信波は物体26に反射して戻ってくる時間であるΔtだけ遅れて測定される。このため、送信波27と受信波28の周波数がわずかに異なることになり、うなり信号が発生する。   FIG. 31 schematically shows the frequencies of the transmission wave and the reception wave. In the signal used in the FCM system, the frequency is linearly increased with the passage of time. FIG. 31 (a) shows the transmission wave and the reception wave whose frequency gradually increases. Such a signal whose frequency changes with time is called chirp. As shown in FIG. 31A, the frequencies of the transmission wave 27 and the reception wave 28 increase with time while the amplitude remains constant. Note that the received wave is measured with a delay of Δt, which is the time to return after being reflected by the object 26. For this reason, the frequencies of the transmission wave 27 and the reception wave 28 are slightly different, and a beat signal is generated.

図31(b)は時間に対する送信波27と受信波28の周波数成分の変化を示す。送信波27の送信を開始してからΔtだけ遅れて受信波28が測定される。送信波27は時間に対し一定速度で増大するので、Δtの遅れがある場合の周波数のずれはΔfで一定である。なお、周波数が変化している時間はTであり、最小の周波数と最大の周波数の周波数差はFである。TとFは既知(制御値)である。したがって、Δfを観測できればΔtに変換できる。Δtが分かれば物体までの距離に変換できる。   FIG. 31 (b) shows changes in frequency components of the transmission wave 27 and the reception wave 28 with respect to time. The reception wave 28 is measured with a delay of Δt after the transmission of the transmission wave 27 is started. Since the transmission wave 27 increases at a constant speed with respect to time, the frequency shift when there is a delay of Δt is constant at Δf. The time during which the frequency is changing is T, and the frequency difference between the minimum frequency and the maximum frequency is F. T and F are known (control values). Therefore, if Δf can be observed, it can be converted to Δt. If Δt is known, it can be converted to the distance to the object.

送信波27と受信波28の周波数がΔfずれているので、送信波27と受信波28が重ね合わされるとうなり信号が生じる。うなり信号は細かな振動を包括する大きな振動をいうが、周波数Δfが一定なら大きな振動の周波数も一定である。また、うなり信号の周波数は周波数Δfに等しくなることが知られている。   Since the frequencies of the transmission wave 27 and the reception wave 28 are shifted by Δf, a signal is generated in which the transmission wave 27 and the reception wave 28 are superimposed. The beat signal is a large vibration that includes fine vibrations. If the frequency Δf is constant, the frequency of the large vibration is also constant. Also, it is known that the frequency of the beat signal is equal to the frequency Δf.

うなり信号をフーリエ変換(好ましくはファストフーリエ変換)するとうなり信号の周波数にパワーのピークが現れる周波数スペクトルが得られるので、周波数Δfを検出するにはうなり信号をフーリエ変換すればよい。図31(c)はフーリエ変換により得られた周波数Δfを模式的に示す。   Since the beat signal is subjected to Fourier transform (preferably fast Fourier transform) to obtain a frequency spectrum in which a power peak appears at the frequency of the signal, the beat signal may be subjected to Fourier transform to detect the frequency Δf. FIG. 31 (c) schematically shows the frequency Δf obtained by Fourier transformation.

続いてΔfを距離Rに変換する方法を説明する。まず、距離RとΔtには以下の関係がある。ただし、Cは空気中の光速である。
Δt=2R/C …(9)
次に、ΔtとΔfには、図31(b)の図から明らかなように以下の関係がある
Δt:Δf=T:F
これを変形して、以下の式が得られる。
Δf=F×Δt/T …(10)
式(9)を式(10)に代入すると下式が得られる。
Δf=2RF/CT …(11)
R=CTΔf/2F …(12)
したがって、式(12)にフーリエ変換で求めたΔfを代入することで距離Rに変換できる。
Next, a method for converting Δf into distance R will be described. First, the distances R and Δt have the following relationship. However, C is the speed of light in the air.
Δt = 2R / C (9)
Next, Δt and Δf have the following relationship as is apparent from the diagram of FIG. 31B: Δt: Δf = T: F
By transforming this, the following equation is obtained.
Δf = F × Δt / T (10)
Substituting equation (9) into equation (10) yields:
Δf = 2RF / CT (11)
R = CTΔf / 2F (12)
Therefore, the distance R can be converted by substituting Δf obtained by the Fourier transform into the equation (12).

FMCWはFCMを連続的に行う方式であり、原理はFCMと同様である。図32はFMCW方式において時間に対する送信波27と受信波28の周波数とうなり信号の波形29を示す。FMCW方式では比較的ゆっくりと周波数が繰り返し遷移する。相対速度の認識力とマルチターゲットの認識力についてはFCMの方が高いとされている。   FMCW is a method of continuously performing FCM, and the principle is similar to that of FCM. FIG. 32 shows the waveform 29 of the frequency of the transmit wave 27 and the receive wave 28 with respect to time in the FMCW system. In the FMCW system, the frequency transitions repeatedly relatively slowly. The FCM is considered to be higher in the relative speed recognition ability and the multi-target recognition ability.

<ミリ波レーダが検出する物体の方向について>
続いて、図33を用いて、FCM方式における物体の方向の検出方法を説明する。図33は物体の方向を説明する図である。図33(a)はミリ波送受信装置25と物体26の一例の上面図を示す。FCM方式は、水平面を使用して反射された反射波の角度θを推定する。例えば移動体の進行方向を0度とすれば、θは水平方向の物体26の角度(到来角)である。
<Direction of object detected by millimeter wave radar>
Next, an object direction detection method in the FCM method will be described with reference to FIG. FIG. 33 is a diagram for explaining the direction of an object. FIG. 33A shows a top view of an example of the millimeter wave transmitter / receiver 25 and the object 26. In the FCM method, an angle θ of a reflected wave reflected using a horizontal plane is estimated. For example, assuming that the traveling direction of the moving object is 0 degrees, θ is the angle (arrival angle) of the object 26 in the horizontal direction.

図33(b)は複数の受信アンテナ31を用いたθの算出方法を示す。受信波28の角度θはアレイアンテナにより検出できる。図33(b)ではN個の受信アンテナ31が間隔dで一直線上に配置されている。角度θから受信波28が到来した場合、物体26と受信アンテナ31の距離が十分に離れていれば到来伝播は平面となる。各受信アンテナ31が受信する受信波の経路差l(エル)はdsinθの整数倍で表すことができる。経路差は受信波28の遅延rになって現れるため、各受信アンテナ31で受信される受信波28の遅延量が分かれば角度θを推定することができる。
l=dsinθ
r=l/C=(d/C)sinθ
θ=arcsin(r・C/d)…(13)
FIG. 33B shows a method for calculating θ using a plurality of receiving antennas 31. The angle θ of the received wave 28 can be detected by an array antenna. In FIG. 33 (b), N reception antennas 31 are arranged on a straight line at intervals d. When the reception wave 28 arrives from the angle θ, the arrival propagation becomes a plane if the distance between the object 26 and the reception antenna 31 is sufficiently large. The path difference l (el) of the received wave received by each receiving antenna 31 can be expressed by an integer multiple of dsinθ. Since the path difference appears as a delay r of the reception wave 28, the angle θ can be estimated if the delay amount of the reception wave 28 received by each reception antenna 31 is known.
l = d sin θ
r = l / C = (d / C) sin θ
θ = arcsin (r · C / d) (13)

<効果について>
以下では、実際の実験結果を用いて本実施形態の測距システム100の効果を説明する。
<About effects>
Below, the effect of the ranging system 100 of this embodiment is demonstrated using an actual experimental result.

<<実験結果1>>
図34は、状況を説明するための基準画像を示す。図34(a)は基準画像で、図34(b)は中央の拡大図である。基準画像の中央付近(遠方)に移動体301と人物302とチャート303(進行方向などを示す看板)が写っている。距離の実測値は以下のとおりである。
移動体:68.5m
人物:80m
チャート:80m
図35は俯瞰マップの比較例を示す。図35(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図35(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。本実施形態では測距精度と面分離性が向上したため、移動体301、及び、チャート(人物)302,303が分離されている。ただし、同じ距離にある人物とチャートが分離できていない。この点は今後の改良点であるが、100m先にある門304、及び、75m先の物置305が分離されている。
<< Experimental result 1 >>
FIG. 34 shows a reference image for explaining the situation. FIG. 34A is a reference image, and FIG. 34B is an enlarged view of the center. A moving body 301, a person 302, and a chart 303 (a signboard indicating the traveling direction, etc.) are shown near the center (far away) of the reference image. The actual measured distance is as follows.
Mobile body: 68.5m
Person: 80m
Chart: 80 m
FIG. 35 shows a comparative example of the overhead view map. FIG. 35A shows an overhead map created based on the distance obtained by block matching, and FIG. 35B shows an overhead map created based on the distance measured by the distance measuring system 100 of the present embodiment. Show. In this embodiment, since the distance measurement accuracy and the surface separation are improved, the moving body 301 and the charts (persons) 302 and 303 are separated. However, the person and the chart at the same distance can not be separated. Although this is a future improvement, the gate 304 that is 100 meters away and the storeroom 305 that is 75 meters away are separated.

図36を用いて俯瞰マップについて補足する。図36は俯瞰マップの作成方法を説明する図の一例である。図36は距離画像を示し、距離画像の画素座標(x,y)の距離がzであるとき、画素座標(x,y)の視差d(x,y)は、
d(x,y) = B×F/z
で算出される。
The eyelid map is supplemented using FIG. FIG. 36 is an example of a diagram illustrating a method for creating an overhead map. FIG. 36 shows a distance image, and when the distance of pixel coordinates (x, y) of the distance image is z, the parallax d (x, y) of the pixel coordinates (x, y) is
d (x, y) = B × F / z
Is calculated by

距離画像の中心座標を(x,y)とすると、実空間座標(X,Y,Z)は、
X = (x − x)×B/d(y,x);
Y = (y − y)×B/d(y,x);
Z = B×F/d(y,x) (= z);
距離演算部14はこの計算を、俯瞰マップを求める距離画像の各画素で実行する。図36のような俯瞰マップは2次元なので、(X,Z)に対応するメッシュ空間に1票を投じると、図36の俯瞰マップが得られる。なお、(X,Y,Z)に対応するメッシュ空間に1票投じると3次元マップが得られる。
Assuming that the center coordinates of the distance image are (x 0 , y 0 ), real space coordinates (X, Y, Z) are
X = (x-x 0 ) x B / d (y, x);
Y = (y-y 0 ) x B / d (y, x);
Z = B x F / d (y, x) (= z);
The distance calculation unit 14 performs this calculation on each pixel of the distance image for which an overhead map is obtained. Since the eyelid map as shown in FIG. 36 is two-dimensional, if one vote is cast in the mesh space corresponding to (X, Z), the eyelid map shown in FIG. 36 is obtained. If one vote is cast in the mesh space corresponding to (X, Y, Z), a three-dimensional map is obtained.

<<実験結果2>>
図37は、状況を説明するための基準画像を示す。図37(a)は基準画像で、図37(b)は中央の拡大図である。基準画像の中央付近(遠方)に複数の移動体311,312が写っている。距離の実測値は以下のとおりである。
移動体1:55m
移動体2:78m
図38は俯瞰マップの比較例を示す。図38(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図38(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。本実施形態では測距精度と面分離性が向上したため、2つの移動体311,312が明確に分離されている。100m先にある門、及び、75m先の物置が分離されている。
<< Experimental result 2 >>
FIG. 37 shows a reference image for explaining the situation. FIG. 37A is a reference image, and FIG. 37B is an enlarged view of the center. A plurality of moving bodies 311 and 312 are shown near the center (far away) of the reference image. The actual measured distance is as follows.
Moving body 1: 55 m
Moving body 2: 78 m
FIG. 38 shows a comparative example of the overhead view map. FIG. 38A shows an overhead map created based on the distance obtained by block matching, and FIG. 38B shows an overhead map created based on the distance measured by the distance measuring system 100 of the present embodiment. Show. In the present embodiment, since the distance measurement accuracy and the surface separation are improved, the two moving bodies 311 and 312 are clearly separated. The gate 100m ahead and the storeroom 75m away are separated.

<<実験結果3>>
図39は、ヘッドライトが撮像された夜間の基準画像を示す。図39(a)は基準画像の全体と測距システム100の処理範囲を示し、図39(b)は移動体321のヘッドライト部分の拡大図である。
<< Experimental result 3 >>
FIG. 39 shows a reference image at night in which the headlight is imaged. FIG. 39A shows the entire reference image and the processing range of the distance measuring system 100, and FIG. 39B is an enlarged view of the headlight portion of the moving body 321.

図40は俯瞰マップの比較例を示す。図40(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図40(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。ブロックマッチングでは立体物の位置が不明瞭である。これに対し本実施形態の測距システム100は、夜間であっても60m以遠の遠距離において移動体321を含む他の立体物(移動体311,322、物置305,門304)を分離して検出することが可能となる。   FIG. 40 shows a comparison example of the flooding map. 40A shows an overhead map created based on the distance obtained by block matching, and FIG. 40B shows the overhead map created based on the distance measured by the distance measuring system 100 of the present embodiment. Show. In block matching, the positions of three-dimensional objects are unclear. On the other hand, the distance measuring system 100 according to the present embodiment separates other three-dimensional objects (moving bodies 311 and 322, storage 305, and gates 304) including the moving body 321 at a long distance of 60 m or more even at night It becomes possible to detect.

<<実験結果4>>
80mと30mの各距離でチャートの距離を測定した場合の実験結果を説明する。
図41は状況を説明するための基準画像である。実際にはカラーの距離画像が得られているが特許図面では色情報が失われるため、距離画像は掲載していない。代替として、面精度の評価結果をチャート303の面内の「距離平均」と「距離標準偏差」で数値化して示す。
<< Experimental result 4 >>
An experimental result when the distance of the chart is measured at each distance of 80 m and 30 m will be described.
FIG. 41 is a reference image for explaining the situation. Although a color distance image is actually obtained, color information is lost in the patent drawing, and therefore no distance image is posted. As an alternative, the evaluation result of the surface accuracy is shown as a numerical value by “distance average” and “distance standard deviation” in the surface of the chart 303.

表1は、本実施形態、SGM伝播方式、及び、ブロックマッチングによるチャート303の距離の検出結果を示す。80mと30mのいずれにおいても、本実施形態の測距システム100は平均、分散、標準偏差の全てにおいて大きな精度の向上が確認できる。 Table 1 shows the detection results of the distance of the chart 303 according to the present embodiment, the SGM propagation method, and the block matching. In both 80 m and 30 m, the distance measuring system 100 of this embodiment can confirm a large improvement in accuracy in all of the average, variance, and standard deviation.

<<実験結果5>>
図42はSGM伝播方式で生じる膨張の抑制結果を説明する図である。図42(a)は基準画像を示し、図42(b)は本実施形態の測距システム100が算出した距離画像を示し、図42(c)はSGM伝播方式により算出した距離画像を示す。図42(c)ではチャートの両脚の間が膨張によりチャートの距離になっているが、図42(b)に示す本実施形態の測距システム100ではチャートの両脚の間に背景の距離が算出されている。
<< Experimental result 5 >>
FIG. 42 is a diagram for explaining a result of suppressing expansion that occurs in the SGM propagation method. 42A shows a reference image, FIG. 42B shows a distance image calculated by the distance measuring system 100 of the present embodiment, and FIG. 42C shows a distance image calculated by the SGM propagation method. In FIG. 42 (c), the distance between the two legs of the chart is the distance of the chart due to the expansion, but in the distance measuring system 100 of the present embodiment shown in FIG. 42 (b), the distance of the background is calculated between the two legs of the chart. It is done.

なお、図42の実験ではレーザの照射光が上下方向に多層に積層したレーザレーダ測距部110を用いた。   In the experiment shown in FIG. 42, the laser radar distance measuring unit 110 in which the irradiation light of the laser is stacked in multiple layers in the vertical direction is used.

<まとめ>
以上説明したように、本実施形態の測距システム100は、ステレオカメラがブロックマッチング等で距離画像を出力する前に、Z空間でLIDARが測定した距離情報を統合させることで高密度かつ高分解能な距離画像を実現できる。
<Summary>
As described above, the distance measuring system 100 according to the present embodiment integrates the distance information measured by the LIDAR in the Z space before the stereo camera outputs a distance image by block matching or the like, thereby achieving high density and high resolution. It is possible to realize a wide range image.

本実施形態の効果について補足する。例えば、特開2015−143679号公報などの従来技術はブロックマッチングで得た「視差画像」を視差空間でLIDARが測定した距離情報を統合させるのに対し、本実施形態では距離空間で統合させる。   It supplements about the effect of this embodiment. For example, in the related art such as JP-A-2015-143679, the "parallax image" obtained by block matching is integrated in the distance space in the present embodiment, while the distance information measured by LIDAR in the parallax space is integrated.

視差空間で統合する手法では、LIDARの距離分解能が高く距離精度が担保されているのにもかかわらず、特に遠方で距離分解能が粗くなり、粗い距離分解能で得た距離を用いて視差空間伝播処理でサブピクセル推定を行ってしまう。このため、距離精度が担保されなくなり性能の向上が見込めなくなる。   In the method of integrating in the parallax space, although the distance resolution of LIDAR is high and the distance accuracy is ensured, the distance resolution becomes coarse especially in the distance, and the parallax space propagation processing is performed using the distance obtained by the coarse distance resolution In sub-pixel estimation. For this reason, distance accuracy can not be secured, and improvement in performance can not be expected.

一方、本実施形態のように距離空間で統合する手法は、LIDARの高い距離分解能を担保しつつ、かつ、距離空間でコストカーブとLIDARの融合が行われるので、伝播処理によって、高精度かつ高密度な距離画像を生成することが可能となる。   On the other hand, the method of integrating in the metric space as in the present embodiment ensures the high distance resolution of LIDAR, and the cost curve and the LIDAR are fused in the metric space. It is possible to generate a dense distance image.

この違いにより、本実施形態ではステレオカメラの計測原理の限界である0に近い視差値に対応する距離範囲、例えば100m程度の遠方であっても、正しい距離で、かつ物体面の距離分散が生じない距離画像を生成することができる。また、3D空間の復元においても広範囲な3D空間を復元することが可能になる。   Due to this difference, in this embodiment, even in a distance range corresponding to a parallax value close to 0, which is the limit of the measurement principle of a stereo camera, for example, at a distant distance of about 100 m, a correct distance and distance dispersion of the object plane occur. No distance image can be generated. In addition, it also becomes possible to restore a wide range of 3D space even in 3D space restoration.

すなわち、ステレオカメラから見ると、測距精度が向上し、物体面の距離の低分散化、物体面の面分離性が向上するため遠方物体の検出と測距精度が向上する。また、繰返しパタンや低テクスチャでの誤マッチングにより信頼性が乏しいコストが算出される画素についても、統合することによってより正しい距離を算出できるようになる(耐物標性)。また、夜間であっても遠方を高精度に測距することが可能になる(耐環境性)。また、SGM伝播方式で生じる物体境界の膨張が抑制される。また、LIDARから見ても、空間分解能が増えるという効果がある。   That is, when viewed from a stereo camera, the distance measurement accuracy is improved, the distance of the object surface is reduced, and the surface separation of the object surface is improved. In addition, it is possible to calculate a more correct distance (object resistance) by integrating the pixels whose cost is low due to repetitive patterns and false matching with a low texture. In addition, it is possible to measure the distance with high accuracy even at night (environmental resistance). In addition, expansion of the object boundary caused by the SGM propagation method is suppressed. In addition, LIDAR also has the effect of increasing spatial resolution.

本実施例では、レーザレーダの測距値の曖昧さを考慮してステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合させる測距システム100について説明する。 In this embodiment, a ranging system 100 that integrates stereo matching cost C ST (p, Z) and LIDAR cost C LI (p, Z) in consideration of the ambiguity of the ranging value of the laser radar will be described.

実施例1で説明したように、レーザ光の横分解能と縦分解能範囲でも周囲になるほど距離情報の正確性が低下する。実施例1では式(5)により周辺部のコストを大きくすることで対応したが、本実施例ではレーザレーダ測距部110の距離情報に曖昧さを考慮することで対応する。   As described in the first embodiment, the accuracy of the distance information decreases as the laser light is extended in the horizontal resolution and the vertical resolution range. In the first embodiment, this is dealt with by increasing the cost of the peripheral portion by the equation (5), but in this embodiment, this is dealt with by considering the ambiguity in the distance information of the laser radar ranging unit 110.

すなわち、実施例1ではLIDARコストCLI(p,Z)を空間成分(xy面の精度)のみから算出したが、本実施例では距離成分(Z方向の精度)も考慮する。本実施例ではLIDARコストCLI(p,Z)を以下のように定義して、距離成分コストCLD(p、Z)を考慮したLIDARコストCLI(p,Z)の算出方法を説明する。
LIDARコストCLI(p,Z)∝空間成分×距離成分 …(14)
空間成分は実施例1の式(5)でよい。距離成分コストCLD(p,Z)は、一例として以下のように定義できる。
That is, in the first embodiment, the LIDAR cost C LI (p, Z) is calculated from only the spatial component (the accuracy of the xy plane), but the distance component (the accuracy in the Z direction) is also considered in the present embodiment. In this embodiment, the LIDAR cost C LI (p, Z) is defined as follows, and a method of calculating the LIDAR cost C LI (p, Z) in consideration of the distance component cost C LD (p, Z) will be described. .
LIDAR cost C LI (p, Z) ∝space component × distance component (14)
The space component may be the equation (5) of the first embodiment. The distance component cost C LD (p, Z) can be defined as follows as an example.

…(15)
γ :レーザの測距値
Z :レーザの測距値からの乖離
v :距離成分の広がりを定めるパラメータ
β :距離成分の深さを定めるパラメータ(0〜1)

図43は、式(15)により表されるLIDARコストCLI(p,Z)の距離成分コストCLD(p,Z)を模式的に表す図である。図示するように、LIDARコストCLI(p,Z)の距離成分コストは、レーザの測距値で最も小さく、レーザの測距値からの乖離が大きいほど大きくなる。これは、物体の反射率の影響や物体のどこに当たるかによって、レーザの測距値が真値からずれる場合がある。この場合、本来は面を形成している物体面が分裂して検出される。式(15)のように不明確さvをLIDARコストCLI(p,Z)の距離成分に含めることで、幅を持ってレーザの測距値を扱うことができるので、分裂を抑制しやすくなる。
... (15)
γ: laser distance measurement value Z: deviation from laser distance measurement value v: parameter for determining the spread of the distance component β: parameter for determining the depth of the distance component (0 to 1)

FIG. 43 is a diagram schematically illustrating the distance component cost C LD (p, Z) of the LIDAR cost C LI (p, Z) represented by the equation (15). As shown in the figure, the distance component cost of the LIDAR cost C LI (p, Z) is the smallest among the distance measurement values of the laser, and increases as the deviation from the distance measurement value of the laser increases. This may cause the laser distance measurement value to deviate from the true value depending on the influence of the reflectance of the object and where the object falls. In this case, the object surface that originally forms the surface is split and detected. By including the ambiguity v in the distance component of LIDAR cost C LI (p, Z) as in equation (15), it is possible to handle the distance measurement value of the laser with a width, so it is easy to suppress the fragmentation. Become.

なお、図43の距離成分コストCLD(p,Z)の形状は一例に過ぎない。例えば、LIDAR距離γから一定範囲で最小のコストを示す矩形でもよいし、図43と似ているが逆三角形でもよい。 Note that the shape of the distance component cost C LD (p, Z) in FIG. 43 is merely an example. For example, a rectangle indicating the minimum cost within a certain range from the LIDAR distance γ may be used, or similar to FIG. 43 but an inverted triangle may be used.

図44は、空間成分のLIDARコストCLI(p,Z)と距離成分コストCLD(p,Z)が、式(15)により、どのようにステレオマッチングコストCST(p,Z)に統合されるかを説明する図である。 FIG. 44 shows how the spatial component LIDAR cost C LI (p, Z) and the distance component cost C LD (p, Z) are integrated into the stereo matching cost C ST (p, Z) according to equation (15). It is a figure explaining what is done.

A.レーザレーダ測距部110の照射方向に対応する画素rのステレオマッチングコストCST(p,Z)のうちLIDAR距離γには、最も小さいLIDARコストCLI(p,Z)と最も小さい距離成分コストCLD(p,Z)とが乗じたものが加算される。 A. Among the stereo matching costs C ST (p, Z) of the pixel r 0 corresponding to the irradiation direction of the laser radar ranging unit 110, the LIDAR distance γ has the smallest LIDAR cost C LI (p, Z) and the smallest distance component. The product multiplied by the cost C LD (p, Z) is added.

B.レーザレーダ測距部110の照射方向に対応する画素rのステレオマッチングコストCST(p,Z)のうちLIDAR距離γからΔZ離れた距離Zには、最も小さいLIDARコストCLI(p,Z)とΔZに応じて式(15)で算出された距離成分コストCLD(p,Z)とが乗じたものが加算される。 B. Among the stereo matching costs C ST (p, Z) of the pixel r 0 corresponding to the irradiation direction of the laser radar ranging unit 110, the smallest LIDAR cost C LI (p, Z) is at a distance Z that is ΔZ away from the LIDAR distance γ. ) And the distance component cost C LD (p, Z) calculated by the equation (15) according to ΔZ are added.

C.レーザレーダ測距部110の照射方向に対応する画素rの周囲の画素pのステレオマッチングコストCST(p,Z)のうちLIDAR距離γには、rとpの距離に応じて式(5)で算出されたLIDARコストCLI(p,Z)と最も小さい距離成分コストCLD(p,Z)とが乗じたものが加算される。 C. Of the stereo matching costs C ST (p, Z) of the pixel p around the pixel r 0 corresponding to the irradiation direction of the laser radar ranging unit 110, the LIDAR distance γ is expressed by an expression (in accordance with the distance between r 0 and p ( The product of LIDAR cost C LI (p, Z) calculated in 5) and the smallest distance component cost C LD (p, Z) is added.

D.レーザレーダ測距部110の照射方向に対応する画素rの周囲の画素pのステレオマッチングコストCST(p,Z)のうちLIDAR距離γからΔZ離れた距離Zには、rとpの距離に応じて式(5)で算出されたLIDARコストCLI(p,Z)とΔZに応じて式(15)で算出された距離成分コストCLD(p,Z)とが乗じたものが加算される。 D. Among the stereo matching costs C ST (p, Z) of the pixel p around the pixel r 0 corresponding to the irradiation direction of the laser radar ranging unit 110, a distance Z that is ΔZ away from the LIDAR distance γ is set to r 0 and p. A product obtained by multiplying the LIDAR cost C LI (p, Z) calculated by the equation (5) according to the distance and the distance component cost C LD (p, Z) calculated by the equation (15) according to ΔZ. Is added.

<まとめ>
以上説明したように、本実施例の測距システム100は実施例1の効果に加え、更に物体面の分裂を防ぐことができる。
<Summary>
As described above, in addition to the effects of the first embodiment, the distance measuring system 100 of the present embodiment can further prevent the object plane from being split.

本実施例では、測距システム100に異常が生じた場合にフェールセーフ処理を行うと共に、異常が生じた旨を表示することができる測距システム100について説明する。図12,図13で説明したように、レーザレーダ測距部110及びステレオ画像演算部120の異常をECU20が検出できる。
・レーザレーダ測距部110に異常がある場合は、レーザレーダ測距部110からステレオ画像演算部120に通知があるか又はステレオ画像演算部120が検出してECU20に通知できる。ECU20はステレオ画像演算部120が生成する距離画像により運転支援を継続できる。
・ステレオ画像演算部120に異常がある場合は、ステレオ画像演算部120からECU20に通知があるか又はECU20が検出できる。ECU20はレーザレーダ測距部110が出力する照射方向と距離情報により運転支援を継続できる。
In this embodiment, a fail-safe process is performed when an abnormality occurs in the distance measuring system 100, and the distance measuring system 100 capable of displaying that an abnormality has occurred will be described. As described with reference to FIGS. 12 and 13, the ECU 20 can detect an abnormality in the laser radar ranging unit 110 and the stereo image calculation unit 120.
When there is an abnormality in the laser radar distance measuring unit 110, the laser radar distance measuring unit 110 can notify the stereo image calculating unit 120 or the stereo image calculating unit 120 can detect and notify the ECU 20. The ECU 20 can continue the driving assistance by the distance image generated by the stereo image calculating unit 120.
When there is an abnormality in the stereo image calculation unit 120, the ECU 20 can detect whether the stereo image calculation unit 120 has notified the ECU 20 or the ECU 20 can detect it. The ECU 20 can continue driving assistance based on the irradiation direction and distance information output by the laser radar distance measuring unit 110.

ただし、異常の態様が、ECU20がステレオ画像演算部120と通信できない異常の場合、ECU20はステレオ画像演算部120を介してレーザレーダ測距部110の距離情報を取得できない。このため、ECU20がステレオ画像演算部120と通信できない異常の場合、ECU20はレーザレーダ測距部110から直接、照射方向と距離情報を取得するとよい。   However, when the abnormality mode is an abnormality in which the ECU 20 cannot communicate with the stereo image calculation unit 120, the ECU 20 cannot acquire the distance information of the laser radar ranging unit 110 via the stereo image calculation unit 120. For this reason, in the case of an abnormality in which the ECU 20 cannot communicate with the stereo image calculation unit 120, the ECU 20 may acquire the irradiation direction and distance information directly from the laser radar distance measuring unit 110.

こうすることで、レーザレーダ測距部110とステレオ画像演算部120のどちらかが正常であれば、統合はできないがECU20が距離画像又は距離情報を利用して運転支援することができる。   In this way, if either the laser radar distance measuring unit 110 or the stereo image calculation unit 120 is normal, the integration cannot be performed, but the ECU 20 can assist driving using the distance image or the distance information.

図45は、レーザレーダ測距部110又はステレオ画像演算部120に異常がある場合の、ECU20の制御例を示すフローチャート図の一例である。図45の処理は、移動体の走行中は繰り返し実行される。   FIG. 45 is an example of a flowchart illustrating a control example of the ECU 20 when there is an abnormality in the laser radar ranging unit 110 or the stereo image calculation unit 120. The process of FIG. 45 is repeatedly performed while the moving object is traveling.

まず、ECU20はレーザレーダ測距部110とステレオ画像演算部120の両方に異常が検出されたか否かを判断する(S101)。異常はレーザレーダ測距部110が検出したものでも、ステレオ画像演算部120が検出したものでも、ECU20が検出したものでもよい。   First, the ECU 20 determines whether or not an abnormality has been detected in both the laser radar distance measuring unit 110 and the stereo image calculation unit 120 (S101). The abnormality may be detected by the laser radar ranging unit 110, detected by the stereo image calculation unit 120, or detected by the ECU 20.

ステップS101の判断がYesの場合、ECU20はレーザレーダ測距部110とステレオ画像演算部120に異常がある旨を表示装置21に表示する(S102)。表示例を図46に示す。   When the determination in step S101 is Yes, the ECU 20 displays on the display device 21 that there is an abnormality in the laser radar distance measurement unit 110 and the stereo image calculation unit 120 (S102). A display example is shown in FIG.

ステップS101の判断がNoの場合、ECU20はレーザレーダ測距部110の異常が検出されたか否かを判断する(S103)。異常はレーザレーダ測距部110が検出したものでも、ステレオ画像演算部120が検出したものでもよい。   If the determination in step S101 is No, the ECU 20 determines whether or not an abnormality of the laser radar distance measuring unit 110 has been detected (S103). The abnormality may be detected by the laser radar distance measurement unit 110 or may be detected by the stereo image calculation unit 120.

ステップS103の判断がYesの場合、ECU20はステレオ画像演算部120の距離画像だけで運転支援を行う(S104)。異常の検出前からECU20は距離画像で運転支援しているため、処理に変更はない。   If the determination in step S103 is YES, the ECU 20 performs driving assistance using only the distance image of the stereo image calculation unit 120 (S104). Since the ECU 20 assists the driving with the distance image before the detection of the abnormality, the process is not changed.

次に、ECU20はレーザレーダ測距部110に異常がある旨を表示装置21に表示する(S105)。表示例を図46に示す。   Next, the ECU 20 displays on the display device 21 that there is an abnormality in the laser radar distance measuring unit 110 (S105). A display example is shown in FIG.

続いて、ECU20はステレオ画像演算部120の異常が検出されたか否かを判断する(S106)。異常はステレオ画像演算部120が検出したものでも、ECU20が検出したものでもよい。   Subsequently, the ECU 20 determines whether an abnormality of the stereo image calculation unit 120 is detected (S106). The abnormality may be detected by the stereo image calculation unit 120 or may be detected by the ECU 20.

ステップS106の判断がYesの場合、ECU20はレーザレーダ測距部110の距離情報だけで運転支援を行う(S107)。すなわち、距離画像でなく、物体までの方位(照射方向)と距離に基づいて運転支援を開始する。   If the determination in step S106 is YES, the ECU 20 performs driving assistance based on only the distance information of the laser radar distance measuring unit 110 (S107). That is, driving assistance is started not based on the distance image but based on the direction (irradiation direction) to the object and the distance.

次に、ECU20はステレオ画像演算部120に異常がある旨を表示装置21に表示する(S108)。表示例を図46に示す。   Next, the ECU 20 displays on the display device 21 that there is an abnormality in the stereo image calculation unit 120 (S108). A display example is shown in FIG.

こうすることで、ECU20はレーザレーダ測距部110に異常が生じても、ステレオ画像演算部120に異常が生じても、継続して運転支援が可能になる。   By doing so, the ECU 20 can continue to support driving even if an abnormality occurs in the laser radar distance measuring unit 110 or an abnormality occurs in the stereo image calculation unit 120.

図46はレーザレーダ測距部110又はステレオ画像演算部120に異常が生じた場合の表示例を示す図である。   FIG. 46 is a diagram showing a display example when an abnormality occurs in the laser radar distance measurement unit 110 or the stereo image calculation unit 120.

図46(a)はレーザレーダ測距部110とステレオ画像演算部120に異常が生じた場合に表示装置21に表示される、レーザレーダ測距部110とステレオ画像演算部120に異常が生じた旨の表示例を示す。図46(a)では「警告 レーダとカメラセンサに異常が生じました。運転支援を終了します。」と表示されている。これにより、移動体の乗員はレーザレーダ測距部110とステレオ画像演算部120に異常があるため、運転支援が継続されないことを把握できる。   FIG. 46 (a) shows that the laser radar distance measuring unit 110 and the stereo image calculating unit 120, which are displayed on the display unit 21 when abnormality occurs in the laser radar distance measuring unit 110 and the stereo image calculating unit 120 A display example of this is shown. In FIG. 46 (a), “Warning: An abnormality has occurred in the radar and camera sensor. Driving support will be terminated.” Is displayed. As a result, the occupant of the moving body can grasp that the driving support is not continued because the laser radar ranging unit 110 and the stereo image calculation unit 120 are abnormal.

図46(b)はレーザレーダ測距部110に異常が生じた場合に表示装置21に表示される、レーザレーダ測距部110に異常が生じた旨の表示例を示す。図46(b)では「警告 レーダに異常が生じました。カメラセンサで運転支援を継続します。」と表示されている。これにより、移動体の乗員はレーザレーダ測距部110に異常があるが、運転支援が継続されることを把握できる。   FIG. 46B shows an example of a display indicating that an abnormality has occurred in the laser radar ranging unit 110 displayed on the display device 21 when an abnormality has occurred in the laser radar ranging unit 110. In FIG. 46 (b), “Warning radar has an abnormality. Driving assistance is continued with the camera sensor.” Is displayed. Thereby, the occupant of the moving body can grasp that the driving support is continued although the laser radar ranging unit 110 has an abnormality.

図46(c)はステレオ画像演算部120に異常が生じた場合に表示装置21に表示される、ステレオ画像演算部120に異常が生じた旨の表示例を示す。図46(c)では「警告 カメラセンサに異常が生じました。レーダで運転支援を継続します。」と表示されている。これにより、移動体の乗員はステレオ画像演算部120に異常があるが、運転支援が継続されることを把握できる。   FIG. 46 (c) shows a display example that an abnormality has occurred in the stereo image calculation unit 120 that is displayed on the display device 21 when an abnormality has occurred in the stereo image calculation unit 120. In FIG. 46 (c), “Warning has occurred in the camera sensor. The radar will continue driving support.” Is displayed. As a result, the occupant of the mobile object can recognize that the driving assistance is continued although there is an abnormality in the stereo image computing unit 120.

本実施例では、LIDARコストCLI(p,Z)のステレオマッチングコストCST(p,Z)への投票を部分的に行う測距システム100について説明する。実施例1の図20,図21ではレーザ光の照射方向に対応する画素rを中心に周囲の画素のステレオマッチングコストCST(p,Z)に対し、LIDARコストCLI(p,Z)を投票した。 In the present embodiment, a ranging system 100 will be described, which partially performs voting for the stereo matching cost C ST (p, Z) of the LIDAR cost C LI (p, Z). In FIGS. 20 and 21 of the first embodiment, the LIDAR cost C LI (p, Z) is compared with the stereo matching cost C ST (p, Z) of the surrounding pixels centering on the pixel r 0 corresponding to the irradiation direction of the laser beam. Voted.

本実施例では図47に示すように、LIDARコストCLI(p,Z)の投票をレーザ光の照射方向に対応する画素r及び周囲の全ての画素で行うのではなく、LIDARコストCLI(p,Z)とステレオマッチングコストCST(p,Z)の状態に応じて行う。 In this embodiment, as shown in FIG. 47, the voting of the LIDAR cost C LI (p, Z) is not performed at the pixel r 0 corresponding to the irradiation direction of the laser beam and all the surrounding pixels, but the LIDAR cost C LI This is performed according to the state of (p, Z) and stereo matching cost C ST (p, Z).

図47は画像データとレーザ光の照射位置を模式的に示す図である。図47では例として2つの照射位置401,402が示されている。画像データの一部の画素ブロックに対しレーザ光が広がりを持って当たっている。照射位置401のステレオマッチングコストCST(p,Z)は図示するようになだらかであり(極値がない)、照射位置402のステレオマッチングコストCST(p,Z)は下に凸である(極値が明確)。したがって、照射位置401ではステレオマッチングコストCST(p,Z)の極小値を見つけにくいが、照射位置401では極小値を見つけやすい。 FIG. 47 is a diagram schematically showing the irradiation position of image data and laser light. Two irradiation positions 401 and 402 are shown as an example in FIG. The laser beam spreads on a part of pixel blocks of the image data. The stereo matching cost C ST (p, Z) at the irradiation position 401 is gentle as shown in the figure (there is no extreme value), and the stereo matching cost C ST (p, Z) at the irradiation position 402 is convex downward ( Extreme value is clear). Therefore, it is difficult to find the minimum value of the stereo matching cost C ST (p, Z) at the irradiation position 401, but it is easy to find the minimum value at the irradiation position 401.

図48は距離情報に対応付けられた受光レベルとステレオマッチングコストCST(p,Z)の統合例を説明する図の一例である。図48(a)は照射位置401のステレオマッチングコストCST(p,Z)への投票例を示し、図48(b)は照射位置402のステレオマッチングコストCST(p,Z)への投票例を示す。図48(a)では、距離情報に対応付けられた受光レベルの極小値が明確である。このため、ステレオマッチングコストCST(p,Z)への受光レベルの統合により、極小値が明確になっている。 FIG. 48 is an example for explaining an integrated example of the light reception level associated with the distance information and the stereo matching cost C ST (p, Z). FIG. 48A shows an example of voting for the stereo matching cost C ST (p, Z) at the irradiation position 401, and FIG. 48B shows voting for the stereo matching cost C ST (p, Z) at the irradiation position 402. An example is shown. In FIG. 48A, the minimum value of the received light level associated with the distance information is clear. For this reason, the minimum value is clarified by integrating the received light level into the stereo matching cost C ST (p, Z).

一方、図47(b)のようなステレオマッチングコストCST(p,Z)では、受光レベルがマルチパルスになった場合に投票が有効である。図48(b)では受光レベルに2つの極小値が得られている。このような波形は複数の物体が1つのレーザ光を反射させた場合に生じうる。図48(b)ではステレオマッチングコストCST(p,Z)への受光レベルの統合により、極小値が明確になっている。 On the other hand, in the stereo matching cost C ST (p, Z) as shown in FIG. 47 (b), voting is effective when the received light level becomes a multi-pulse. In FIG. 48 (b), two minimum values are obtained for the light reception level. Such a waveform can occur when a plurality of objects reflect one laser beam. In FIG. 48 (b), the minimum value is clarified by integrating the received light level into the stereo matching cost C ST (p, Z).

したがって、ステレオ画像演算部120は、以下のように投票の有無を制御する。なお、この統合は、実施例1と同様にレーザ光の照射方向に対応する画素r及び周囲の画素について行う。
・ステレオマッチングコストCST(p,Z)が平坦で、かつ、LIDARの受光レベルの極小値が1つの場合、LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する。
・LIDARの受光レベルがマルチパルスとなっており、ステレオマッチングコストCST(p,Z)の極小値が1つの場合、LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する。
Therefore, the stereo image calculation unit 120 controls the presence / absence of voting as follows. Incidentally, this integration is performed for the pixels r 0 and around the pixels corresponding to the irradiation direction of the laser beam in the same manner as in Example 1.
When the stereo matching cost C ST (p, Z) is flat and the light reception level of the LIDAR is one, the light reception level of the LIDAR and the stereo matching cost C ST (p, Z) are integrated.
When the LIDAR light reception level is a multi-pulse and the stereo matching cost C ST (p, Z) has one minimum value, the LIDAR light reception level and the stereo matching cost C ST (p, Z) are integrated.

換言すると、ステレオマッチングコストCST(p,Z)が平坦で、かつ、LiDARの受光レベルがマルチパルスの場合は、統合の効果が得られにくいので投票を省略できる。また、ステレオマッチングコストCST(p,Z)の極小値が明確で、かつ、LIDARの受光レベルの極小値が明確な場合は、すでに物体を確実に捕らえている可能性が高いので投票を省略できる(この場合は確認の意味を込めて統合してもよい)。 In other words, when the stereo matching cost C ST (p, Z) is flat and the light reception level of the LiDAR is a multi-pulse, it is difficult to obtain an integration effect, so that voting can be omitted. If the minimum value of stereo matching cost C ST (p, Z) is clear and the light reception level of LIDAR is clear, there is a high possibility that the object has already been reliably captured, so voting is omitted. Yes (in this case, it may be integrated with the meaning of confirmation).

ステレオマッチングコストCST(p,Z)が平坦かどうかは、例えば、最小値と最大値の差を閾値と比較して判断できる。この差が十分に大きい場合は極小値が明確と言える。マルチパルスかどうかは、例えば、最大値との差が閾値以上の極小値が2つ以上あるか否かなどにより判断できる。 Whether or not the stereo matching cost C ST (p, Z) is flat can be determined, for example, by comparing the difference between the minimum value and the maximum value with a threshold value. If this difference is sufficiently large, it can be said that the local minimum is clear. Whether or not it is multi-pulse can be determined, for example, based on whether or not there are two or more minimum values whose difference from the maximum value is equal to or greater than a threshold.

なお、図48の説明では「LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する」という表現を使用したが、これはLiDARの受光レベルの波形を説明するためであり、LIDARコストCLI(p,Z)をステレオマッチングコストCST(p,Z)に投票することと同じ意味である。 In the description of FIG. 48, the expression “integrating the LIDAR light reception level and the stereo matching cost C ST (p, Z)” is used to explain the waveform of the LiDAR light reception level. It has the same meaning as voting the cost C LI (p, Z) for the stereo matching cost C ST (p, Z).

本実施例ではサーバ装置が少なくとも一部の処理を実行する距離画像提供システムについて説明する。実施例1〜4において測距システム100が行った処理はサーバ装置が行うこともできる。   In this embodiment, a distance image providing system in which the server device executes at least a part of processing will be described. The processing performed by the distance measurement system 100 in the first to fourth embodiments can also be performed by the server device.

図49は、距離画像提供システム50の概略構成図を示す。図49に示すように、移動体200に車載された測距システム100はネットワークNを介してサーバ装置51と通信する。測距システム100は距離情報、照射方向、基準画像及び比較画像をサーバ装置51に送信し、サーバ装置51は実施例1〜4の処理を行って距離画像を生成し、測距システム100に送信する。   FIG. 49 shows a schematic configuration diagram of the distance image providing system 50. As shown in FIG. As shown in FIG. 49, the distance measurement system 100 mounted on the mobile unit 200 communicates with the server device 51 via the network N. The distance measuring system 100 transmits the distance information, the irradiation direction, the reference image, and the comparison image to the server device 51, and the server device 51 performs the processing of the first to fourth embodiments to generate a distance image and transmits it to the distance measuring system 100. To do.

図50は本実施例の距離画像提供システム50の機能ブロック図の一例である。まず、レーザレーダ測距部110の機能は変更がないが、レーザレーダ測距部110はレーザ光の照射方向と距離情報を通信装置52に送信する。ステレオ画像演算部120は距離演算部14を有する必要がなくなり、歪み補正部13は基準画像と比較画像を通信装置52に送出する。通信装置52は照射方向、距離情報、基準画像及び比較画像をサーバ装置51に送信する。   FIG. 50 is an example of a functional block diagram of the distance image providing system 50 of the present embodiment. First, although the function of the laser radar ranging unit 110 is not changed, the laser radar ranging unit 110 transmits the irradiation direction and distance information of the laser beam to the communication device 52. The stereo image calculation unit 120 does not need to have the distance calculation unit 14, and the distortion correction unit 13 sends the reference image and the comparison image to the communication device 52. The communication device 52 transmits the irradiation direction, the distance information, the reference image, and the comparison image to the server device 51.

サーバ装置51は通信装置53と距離演算部14を有し、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合して距離画像(三次元高密度高分解能距離画像)を作成する。サーバ装置51の通信装置53は距離画像を移動体200に送信する。 The server device 51 includes a communication device 53 and a distance calculation unit 14, and integrates a stereo matching cost C ST (p, Z) and a LIDAR cost C LI (p, Z) to obtain a distance image (three-dimensional high-density high-resolution distance). Create an image). The communication device 53 of the server device 51 transmits the distance image to the mobile unit 200.

移動体200は距離画像と基準画像をECU20に送出することで、ECU20は実施例1〜4と同様に運転支援することができる。   By transmitting the distance image and the reference image to the ECU 20, the moving object 200 can support the driving as in the first to fourth embodiments.

このように本実施例では、移動体200とサーバ装置51が通信して距離画像を生成できるので、測距システム100のコストを低減できる。   As described above, in the present embodiment, since the mobile unit 200 and the server device 51 can communicate and generate a distance image, the cost of the distance measurement system 100 can be reduced.

なお、サーバ装置51は距離画像を、情報を送信した移動体200とは別の移動体に送信してもよい。例えば、渋滞中に先頭の移動体200が照射方向、距離情報、基準画像及び比較画像をサーバ装置51に送信すると、サーバ装置51は後続の移動体200に距離画像を送信する。これにより、後続の移動体200も先頭の移動体200の状況を把握できる。   The server device 51 may transmit the distance image to a mobile other than the mobile 200 that has transmitted the information. For example, when the leading mobile body 200 transmits the irradiation direction, the distance information, the reference image, and the comparison image to the server apparatus 51 during a traffic jam, the server apparatus 51 transmits the distance image to the subsequent mobile body 200. Thereby, the following mobile unit 200 can also grasp the situation of the leading mobile unit 200.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、測距システム100が搭載される移動体200としては車両や自動車を挙げることができるが、測距システム100は移動体に広く適用できる。例えば、少なくとも一部において人間が操作しなくても自律的に移動する移動体に有効である。例えば、飛行機、ドローン、船舶、ロボット等に適用できる。   For example, the moving body 200 on which the ranging system 100 is mounted can be a vehicle or an automobile, but the ranging system 100 can be widely applied to the moving body. For example, the present invention is effective for a mobile that moves autonomously even if at least a part of the user does not operate it. For example, it can be applied to an airplane, a drone, a ship, a robot and the like.

また、レーザ光の波長については、測距に適した波長域の光を使用すればよく、可視光、赤外光、紫外光(人体に影響がない範囲で)でもよいし、光を電磁波と捉えてもよい。   As for the wavelength of the laser light, light in a wavelength range suitable for distance measurement may be used, and visible light, infrared light, and ultraviolet light (in a range that does not affect the human body) may be used. You may catch it.

また、本実施形態では、距離分解能の高い測距方式としてLIDARを説明したが、ミリ波又は超音波(音波、ソナー)などを用いてもよい。こういった、積極的に測距(水から何かしらを放って測距)するものを総称してアクティブ測距という。   In this embodiment, LIDAR has been described as a distance measurement method with high distance resolution. However, millimeter waves, ultrasonic waves (sound waves, sonar), or the like may be used. Such active, distance measurement (distance from water and distance measurement) is collectively called active distance measurement.

また、本実施形態では、ステレオカメラが2つの撮像部を有すると説明したが、3つ以上の撮像部を有していてもよい。また、2つの撮像部は水平方向に離間する他、垂直方向に離間してもよい。また、撮像部は可視光を撮像するだけでなく、近赤外、赤外、などの範囲の光を撮像してもよい。また、偏波フィルタを介して撮像してもよい。   In the present embodiment, the stereo camera has been described as having two image capturing units, but may have three or more image capturing units. The two imaging units may be separated in the vertical direction as well as in the horizontal direction. The imaging unit may not only capture visible light, but may also capture light in a range such as near infrared or infrared. Alternatively, imaging may be performed via a polarization filter.

なお、ステレオ画像演算部120は画像処理部又は画像処理手段の一例であり、レーザレーダ測距部110は測距手段の一例であり、LIDARコストCLI(p,Z)は距離コストの一例であり、LIDARコストCLI(p,Z)は第一の評価値の一例であり、距離成分コストCLD(p,Z)は第二の評価値の一例である。異常監視部601aは第一の異常検出部の一例であり、異常監視部14aは第二の異常検出部の一例である。 The stereo image calculation unit 120 is an example of an image processing unit or an image processing unit, the laser radar ranging unit 110 is an example of a ranging unit, and the LIDAR cost C LI (p, Z) is an example of a distance cost. Yes, LIDAR cost C LI (p, Z) is an example of a first evaluation value, and distance component cost C LD (p, Z) is an example of a second evaluation value. The abnormality monitoring unit 601a is an example of a first abnormality detection unit, and the abnormality monitoring unit 14a is an example of a second abnormality detection unit.

8 ステレオカメラ
11 右カメラ
12 左カメラ
13 歪み補正部
14 距離演算部
20 ECU
100 測距システム
110 レーザレーダ測距部
120 ステレオ画像演算部
200 移動体
8 stereo camera 11 right camera 12 left camera 13 distortion correction unit 14 distance calculation unit 20 ECU
DESCRIPTION OF SYMBOLS 100 Ranging system 110 Laser radar ranging part 120 Stereo image calculating part 200 Mobile body

Hern´n Badino他、「Integrating LIDAR into Stereo for Fast and Improved Disparity Computation」、China、2011 International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission、16th May 2011Hern nn Badino et al., “Integrating LIDAR into Stereo for Fast and Improved Disparity Computation”, China, 2011 International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission, 16th May 2011

Claims (19)

対象物との距離を測定するための距離画像を生成する画像処理方法であって、
測距部が、対象物との距離情報を検出するステップと、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、画像処理部が、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成するステップと、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行うことを特徴とする画像処理方法。
An image processing method for generating a distance image for measuring a distance to an object, comprising:
A distance measuring unit detecting distance information to an object;
Among the pixels including the matching evaluation value of the stereo image, the image processing unit uses the distance measuring unit to set the matching evaluation value of the pixel corresponding to the position where the object whose distance information is detected by the distance measuring unit is present. And generating the distance image by integrating the distance information detected by
The image processing method, wherein the image processing unit performs the integration process before generating the distance image from the matching evaluation value.
前記画像処理部は、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、
前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合することを特徴とする請求項1に記載の画像処理方法。
The image processing unit calculates a matching cost for each shift amount of pixels when matching the stereo image, converts each shift amount into a distance,
The distance evaluation value related to the distance information is integrated into the matching evaluation value of the distance corresponding to the distance information acquired from the distance measuring unit among the pixel matching evaluation values specified by the electromagnetic wave irradiation direction by the distance measuring unit. The image processing method according to claim 1.
前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする請求項2に記載の画像処理方法。   3. The image according to claim 2, wherein the distance evaluation value is a first evaluation value that is the smallest in a pixel specified by an irradiation direction of an electromagnetic wave by the distance measuring unit and increases as the distance from the pixel increases. Processing method. 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素の周囲の画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、該画素から離れるほど大きくなる前記第一の評価値を加算することを特徴とする請求項3に記載の画像処理方法。   The image processing unit uses a matching evaluation value of a distance corresponding to the distance information acquired from the ranging unit among matching evaluation values of pixels around the pixel specified by the irradiation direction of the electromagnetic wave by the ranging unit. The image processing method according to claim 3, wherein the first evaluation value that increases as the distance from the pixel increases. 前記距離評価値は、前記測距部が取得した前記距離情報に対応する距離で最も小さく、前記距離情報に対応する距離から離れるほど大きくなる第二の評価値を前記第一の評価値に乗じたものであることを特徴とする請求項3又は4に記載の画像処理方法。   The distance evaluation value is the smallest in the distance corresponding to the distance information acquired by the distance measuring unit, and is multiplied by a second evaluation value that increases as the distance from the distance corresponding to the distance information increases. The image processing method according to claim 3 or 4, characterized in that: 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、最も小さな前記第一の評価値と最も小さな前記第二の評価値を乗じたものを前記距離評価値として統合し、
前記測距部から取得した前記距離情報に対応する距離から離れた距離のマッチング評価値に、最も小さな前記第一の評価値と前記距離情報に対応する距離から離れた分だけ大きくなる前記第二の評価値とを乗じたものを前記距離評価値として統合することを特徴とする請求項5に記載の画像処理方法。
The image processing unit is the smallest matching evaluation value of the distance corresponding to the distance information acquired from the distance measuring unit among the pixel matching evaluation values specified by the electromagnetic wave irradiation direction by the distance measuring unit. A product obtained by multiplying the first evaluation value by the smallest second evaluation value is integrated as the distance evaluation value,
The second matching evaluation value that is larger than the distance corresponding to the distance corresponding to the distance information acquired from the distance measuring unit is increased by the distance from the distance corresponding to the smallest first evaluation value and the distance information. The image processing method according to claim 5, wherein a product obtained by multiplying the evaluation value of the image by the image is integrated as the distance evaluation value.
前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素の周囲の画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、電磁波の照射方向により特定される画素から離れるほど大きくなる前記第一の評価値と最も小さな前記第二の評価値を乗じたものを前記距離評価値として統合し、
前記測距部から取得した前記距離情報に対応する距離から離れた距離のマッチング評価値に、電磁波の照射方向により特定される画素から離れるほど大きくなる前記第一の評価値と前記距離情報に対応する距離から離れた分だけ大きくなる前記第二の評価値とを乗じたものを前記距離評価値として統合することを特徴とする請求項5に記載の画像処理方法。
The image processing unit uses a matching evaluation value of a distance corresponding to the distance information acquired from the ranging unit among matching evaluation values of pixels around the pixel specified by the irradiation direction of the electromagnetic wave by the ranging unit. Integrating the product of the first evaluation value, which increases as the distance from the pixel specified by the irradiation direction of the electromagnetic wave increases, and the second evaluation value, which is the smallest, as the distance evaluation value;
Corresponding to the first evaluation value and the distance information, which increases as the distance from the pixel specified by the irradiation direction of the electromagnetic wave increases to the matching evaluation value of the distance away from the distance corresponding to the distance information acquired from the distance measuring unit. The image processing method according to claim 5, characterized in that a product obtained by multiplying the second evaluation value, which is increased by the distance from the target distance, is integrated as the distance evaluation value.
前記画像処理部は、画素ごとにマッチング評価値と前記距離評価値を統合して得た評価値にデンスアルゴリズムを適用し、
更に、注目している画素の評価値と周囲の画素の評価値を重ね合わせてから、評価値が最小となる前記距離を、注目している画素の距離に決定することを特徴とする請求項2〜7のいずれか1項に記載の画像処理方法。
The image processing unit applies a dense algorithm to an evaluation value obtained by integrating the matching evaluation value and the distance evaluation value for each pixel,
The evaluation value of the pixel of interest and the evaluation value of surrounding pixels are overlapped, and then the distance that minimizes the evaluation value is determined as the distance of the pixel of interest. The image processing method according to any one of 2 to 7.
前記測距部の異常を検出する第一の異常検出部と、
前記ステレオ画像の少なくとも一方を撮像する撮像部の異常を検出する第二の異常検出部と、
前記第一の異常検出部又は前記第二の異常検出部の少なくとも一方が異常を検出した旨を表示装置に表示することを特徴とする請求項1〜8のいずれか1項に記載の画像処理方法。
A first abnormality detection unit for detecting an abnormality of the distance measuring unit;
A second abnormality detection unit that detects an abnormality of the imaging unit that captures at least one of the stereo images;
The image processing according to any one of claims 1 to 8, wherein at least one of the first abnormality detection unit or the second abnormality detection unit displays on the display device that an abnormality has been detected. Method.
前記第一の異常検出部が前記測距部の異常を検出した場合、前記画像処理部は、前記撮像部により撮像された前記ステレオ画像のマッチング評価値から、前記ステレオ画像の画素に距離情報が対応付けられた前記距離画像を生成し、
前記第二の異常検出部が前記撮像部の異常を検出した場合、前記測距部は前記距離情報を外部に出力することを特徴とする請求項9に記載の画像処理方法。
When the first abnormality detection unit detects an abnormality of the distance measuring unit, the image processing unit has distance information on pixels of the stereo image from a matching evaluation value of the stereo image captured by the imaging unit. Generating the associated distance image;
10. The image processing method according to claim 9, wherein when the second abnormality detection unit detects an abnormality in the imaging unit, the distance measurement unit outputs the distance information to the outside.
前記測距部は、対象物までの距離情報に対応付けられた受光レベルを検出し、
前記画像処理部は、前記マッチング評価値が平坦で、前記受光レベルの極小値が1つの場合、前記測距部の測距方向から特定される画素のマッチング評価値と前記距離評価値の統合を行い、
前記受光レベルがマルチパルスを有し、前記マッチング評価値の極小値が1つの場合、前記測距方向から特定される画素のマッチング評価値と前記距離評価値の統合を行うことを特徴とする請求項2に記載の画像処理方法。
The distance measuring unit detects a light reception level associated with distance information to an object,
The image processing unit integrates the matching evaluation value of the pixel specified from the distance measuring direction of the distance measuring unit and the distance evaluation value when the matching evaluation value is flat and the light reception level has one minimum value. Done
The matching evaluation value of a pixel specified from the distance measuring direction and the distance evaluation value are integrated when the received light level has a multi-pulse and the minimum value of the matching evaluation value is one. Item 2. The image processing method according to Item 2.
前記対象物が存在する位置に対応する画素とは、前記測距部による測距方法から特定される画素であることを特徴とする請求項1〜11のいずれか1項に記載の画像処理方法。   The image processing method according to any one of claims 1 to 11, wherein the pixel corresponding to the position where the object exists is a pixel specified by the distance measurement method by the distance measurement unit. . 前記画像処理部は、前記ステレオ画像の画素に距離情報の対応付けも行うことを特徴とする請求項1〜12のいずれか1項に記載の画像処理方法。   The image processing method according to claim 1, wherein the image processing unit also associates distance information with pixels of the stereo image. 対象物との距離を測定するための距離画像を生成する画像処理装置であって、
対象物との距離情報を検出する測距部と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行うことを特徴とする画像処理装置。
An image processing apparatus for generating a distance image for measuring a distance to an object, comprising:
A distance measuring unit that detects distance information to an object;
Among the pixels including the matching evaluation value of the stereo image, the distance detected by the distance measuring unit to the matching evaluation value of the pixel corresponding to the position where the object whose distance information is detected by the distance measuring unit exists. An image processing unit that integrates information to generate the distance image,
The image processing apparatus, wherein the image processing unit performs the integration process before generating the distance image from the matching evaluation value.
車載装置であって、
対象物との距離情報を検出する測距部と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、
前記距離画像を移動体の制御ユニットに送出する車載装置。
An in-vehicle device,
A distance measuring unit that detects distance information to an object;
Among the pixels including the matching evaluation value of the stereo image, the distance detected by the distance measuring unit to the matching evaluation value of the pixel corresponding to the position where the object whose distance information is detected by the distance measuring unit exists. An image processing unit that integrates information to generate a distance image;
The image processing unit performs the integration process before generating the distance image from the matching evaluation value,
An on-vehicle apparatus for transmitting the distance image to a control unit of a mobile unit.
対象物との距離情報を検出する測距部と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、
前記距離画像を使って移動体を制御する制御ユニット、
を有する移動体。
A distance measuring unit that detects distance information to an object;
Among the pixels including the matching evaluation value of the stereo image, the distance detected by the distance measuring unit to the matching evaluation value of the pixel corresponding to the position where the object whose distance information is detected by the distance measuring unit exists. An image processing unit that integrates information to generate a distance image;
The image processing unit performs the integration process before generating the distance image from the matching evaluation value,
A control unit for controlling a mobile using the distance image,
Mobile body with.
測距部から対象物との距離情報を取得する画像処理装置であって、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行うことを特徴とする画像処理装置。
An image processing device that acquires distance information from an object from a distance measuring unit,
Among the pixels including the matching evaluation value of the stereo image, the distance detected by the distance measuring unit to the matching evaluation value of the pixel corresponding to the position where the object whose distance information is detected by the distance measuring unit exists. An image processing unit that integrates information to generate a distance image;
The image processing apparatus, wherein the image processing unit performs the integration process before generating the distance image from the matching evaluation value.
対象物までの距離を測定する測距手段と、
撮像手段と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距手段により距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距手段が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行うことを特徴とするシステム。
Ranging means for measuring the distance to the object;
Imaging means;
The distance information detected by the distance measuring unit in the matching evaluation value of the pixel corresponding to the position where the object whose distance information is detected by the distance measuring unit among the pixels including the matching evaluation value of the stereo image is detected. An image processing unit that generates a distance image by integrating processing of
The system according to claim 1, wherein the image processing unit performs the integration process before generating the distance image from the matching evaluation value.
距離情報とステレオ画像から距離画像を生成するシステムにおいて、
ステレオ画像のマッチング評価値を含む画素のうち、前記距離情報が検出された対象物が存在する位置に対応する画素のマッチング評価値に、前記距離情報を統合処理して距離画像を生成する画像処理手段、を有し、
前記画像処理手段は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行うことを特徴とするシステム。
In a system that generates a distance image from distance information and a stereo image,
Image processing for generating a distance image by integrating the distance information with a matching evaluation value of a pixel corresponding to a position where an object for which the distance information is detected exists among pixels including a matching evaluation value of a stereo image Means, and
The system according to claim 1, wherein the image processing means performs the integration process before generating the distance image from the matching evaluation value.
JP2018243505A 2018-01-23 2018-12-26 image processing method, image processing device, in-vehicle device, moving object, system Active JP7176406B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19152873.6A EP3514759A1 (en) 2018-01-23 2019-01-21 Image processing method, image processing apparatus, on-board device, moving body, and system
US16/253,839 US10891751B2 (en) 2018-01-23 2019-01-22 Range image generating method, range image generating apparatus, and on-board device having range image generating function

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018009067 2018-01-23
JP2018009067 2018-01-23

Publications (2)

Publication Number Publication Date
JP2019128350A true JP2019128350A (en) 2019-08-01
JP7176406B2 JP7176406B2 (en) 2022-11-22

Family

ID=67472108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243505A Active JP7176406B2 (en) 2018-01-23 2018-12-26 image processing method, image processing device, in-vehicle device, moving object, system

Country Status (1)

Country Link
JP (1) JP7176406B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043679A (en) * 2019-09-10 2021-03-18 株式会社デンソー Image registration device, image generation system, image registration method and image registration program
CN114754732A (en) * 2022-03-11 2022-07-15 江苏电力信息技术有限公司 Distance measuring method based on multi-view vision
DE102022133064A1 (en) 2021-12-21 2023-06-22 Subaru Corporation IMAGE PROCESSING DEVICE AND VEHICLE
JP7430886B2 (en) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 Distance measuring device, laser radar and mobile robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (en) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd Obstacle recognition device
JP2015143679A (en) * 2013-12-26 2015-08-06 株式会社リコー Parallax calculation system, information processing device, information processing method and program
JP2015175644A (en) * 2014-03-13 2015-10-05 株式会社リコー Ranging system, information processing device, information processing method, and program
WO2017057056A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (en) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd Obstacle recognition device
JP2015143679A (en) * 2013-12-26 2015-08-06 株式会社リコー Parallax calculation system, information processing device, information processing method and program
JP2015175644A (en) * 2014-03-13 2015-10-05 株式会社リコー Ranging system, information processing device, information processing method, and program
WO2017057056A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JAN FISCHER ET AL.: "Combination of Time-of-Flight Depth and Stereo using Semiglobal Optimization", 2011 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, JPN6022042395, May 2011 (2011-05-01), pages 3548 - 3553, XP032033860, ISSN: 0004892343, DOI: 10.1109/ICRA.2011.5979999 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043679A (en) * 2019-09-10 2021-03-18 株式会社デンソー Image registration device, image generation system, image registration method and image registration program
WO2021049490A1 (en) * 2019-09-10 2021-03-18 株式会社デンソー Image registration device, image generation system, image registration method and image registration program
JP7259660B2 (en) 2019-09-10 2023-04-18 株式会社デンソー Image registration device, image generation system and image registration program
JP7430886B2 (en) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 Distance measuring device, laser radar and mobile robot
DE102022133064A1 (en) 2021-12-21 2023-06-22 Subaru Corporation IMAGE PROCESSING DEVICE AND VEHICLE
CN114754732A (en) * 2022-03-11 2022-07-15 江苏电力信息技术有限公司 Distance measuring method based on multi-view vision
CN114754732B (en) * 2022-03-11 2023-09-05 江苏电力信息技术有限公司 Distance measurement method based on multi-eye vision

Also Published As

Publication number Publication date
JP7176406B2 (en) 2022-11-22

Similar Documents

Publication Publication Date Title
US11719788B2 (en) Signal processing apparatus, signal processing method, and program
JP7297017B2 (en) Method and apparatus for calibrating external parameters of on-board sensors and related vehicles
US11226413B2 (en) Apparatus for acquiring 3-dimensional maps of a scene
US10962638B2 (en) Vehicle radar sensing system with surface modeling
US10891751B2 (en) Range image generating method, range image generating apparatus, and on-board device having range image generating function
US10445928B2 (en) Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US9151626B1 (en) Vehicle position estimation system
US10545229B2 (en) Systems and methods for unified mapping of an environment
JP7176406B2 (en) image processing method, image processing device, in-vehicle device, moving object, system
JP2020003236A (en) Distance measurement device, moving body, distance measurement method, and distance measurement system
US20170030722A1 (en) Vehicle localization system
JP7238422B2 (en) distance measuring method, distance measuring device, in-vehicle device, moving body, distance measuring system
US11867829B2 (en) Continuous visualization of beam steering vehicle radar scans
CN112130158A (en) Object distance measuring device and method
CN110750153A (en) Dynamic virtualization device of unmanned vehicle
EP3540467B1 (en) Range finding system, range finding method, in-vehicle device, and vehicle
US10249056B2 (en) Vehicle position estimation system
US20230161014A1 (en) Methods and systems for reducing lidar memory load
US20220413144A1 (en) Signal processing device, signal processing method, and distance measurement device
WO2022269995A1 (en) Distance measurement device, method, and program
US20230184890A1 (en) Intensity-based lidar-radar target
JP2024039486A (en) Grid map generation system, grid map generation method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R151 Written notification of patent or utility model registration

Ref document number: 7176406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151