JP2020003236A - 測距装置、移動体、測距方法、測距システム - Google Patents

測距装置、移動体、測距方法、測距システム Download PDF

Info

Publication number
JP2020003236A
JP2020003236A JP2018120207A JP2018120207A JP2020003236A JP 2020003236 A JP2020003236 A JP 2020003236A JP 2018120207 A JP2018120207 A JP 2018120207A JP 2018120207 A JP2018120207 A JP 2018120207A JP 2020003236 A JP2020003236 A JP 2020003236A
Authority
JP
Japan
Prior art keywords
distance
unit
pixel
distance information
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018120207A
Other languages
English (en)
Inventor
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
潤 岸和田
Jun Kishiwada
潤 岸和田
横田 聡一郎
Soichiro Yokota
聡一郎 横田
忠司 仲村
Tadashi Nakamura
忠司 仲村
聖也 天野
Seiya Amano
聖也 天野
和摩 松浦
Kazuma Matsuura
和摩 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018120207A priority Critical patent/JP2020003236A/ja
Priority to EP19177736.6A priority patent/EP3588141B1/en
Priority to US16/442,704 priority patent/US11391840B2/en
Publication of JP2020003236A publication Critical patent/JP2020003236A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Abstract

【課題】省スペース化又は低コスト化が可能な測距装置を提供する。【解決手段】複数の撮像装置11,12から取得した複数の画像にマッチングを施し画素ごとに第1の距離情報に変換する変換部23と、横方向の光線分解能と縦方向の光線分解能の少なくとも一方が2度を超えるレーザ光を照射する照射部と、物体でレーザ光が反射した反射信号を取得する受光部と、物体からの反射に対応するピークを反射信号から検出して、照射部がレーザ光を照射してからピークが観測されるまでの時間により第2の距離情報を算出する距離算出部28と、第1の距離情報と第2の距離情報を統合する統合部29と、を有することを特徴とする測距装置。【選択図】図14

Description

本発明は、測距装置、移動体、測距方法、及び測距システムに関する。
ステレオカメラの視差計算アルゴリズムとして、特徴点のブロックマッチング方式が知られている。この方式は、左又は右の画像をシフトさせながら特徴点を探索しシフト量を視差として視差ごとにコストを算出する方式であり、探索視差空間においてコスト最小を与える視差を検出して、視差dと距離Zの対応式(Z=BF/d)により各画素に対応する距離を計算する方式である(Bは基線長、Fは焦点距離)。また、テクスチャが弱い物体に対しても適切に視差値を導き出すSGM(Semi−Global−Matching)伝播方式も知られている。
しかし、これらの視差計算アルゴリズムで決定された視差から計算される距離は、遠方領域の距離分解能を確保することが難しく、また、測距値のばらつき(分散)も大きくなる傾向がある。
例えば車載業界では、自動運転に代表されるように遠方での測距性能の向上が求められている。そこで、空間分解能は低いが距離分解能は高いLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)で測定した距離情報で、視差計算アルゴリズムで算出される距離を補足することが検討されている。なお、LiDARは、物体にレーザ光を照射して反射信号が戻ってくるまでの時間により物体までの距離を算出する測定方法である。時系列の反射信号から物体の反射信号を特定する方法の一例として反射信号のピークを検出する方法がある。
従来から、空間分解能は低いが距離分解能は高いLiDARの測定結果と空間分解能は高いが遠方の距離分解能が低いステレオカメラの測定結果を統合(これをフュージョンと呼ぶ場合がある)する試みが知られている(例えば、特許文献1参照。)。特許文献1には、LiDARの距離情報を、撮像画像を構成する画素と関連付けておき、画素に関連付けられた距離情報に基づく値を、撮像画像を構成する画素の視差演算に用いて視差画像を生成する視差演算システムが開示されている。このようなフュージョンにより、3次元高分解能測距結果出力、測距値の低分散化、不連続面の検出高度化、小型化、及び、環境ロバスト性の向上等を図ることができる。
しかしながら、ステレオカメラの測定結果とLiDARの測定結果の従来のフュージョンでは、省スペース化や低コスト化等について改善の余地があるという問題があった。従来のフュージョンはステレオカメラとLiDARのそれぞれが処理を終えた段階で測定結果を統合する技術がほとんどであり、ステレオカメラとLiDARそれぞれの性能を超えた測距結果が得られることはなかった。これに対し、出願人が開発したフュージョン方法(以下、このフュージョン方法を便宜的に原理フュージョンという)ではステレオカメラとLiDARの処理の初期段階で情報を統合する試みであり、ステレオカメラとLiDARそれぞれの相乗効果により、距離分解能はLiDARレベルに、空間分解能はステレオカメラレベルに向上させる可能がある。
ところで、LiDARの空間分解能は1つのレーザ光の大きさ(これを光線分解能という)の制約を受けるが、光線分解能を高くすること(1つのレーザ光の大きさをより小さくすること)はコスト増となる。また、光線分解能を高くして一定時間内に前方を走査しようとするとLiDARの大型化をもたらす。従来のフュージョン方法では、ステレオカメラとLiDARそれぞれの性能を超えることはなかったため、LiDARの空間分解能を可能な限り向上させようとしていた。このため、従来のLiDARは省スペース化や低コスト化が困難であった。
本発明は、上記課題に鑑み、省スペース化又は低コスト化が可能な測距装置を提供することを目的とする。
上記課題に鑑み、複数の撮像装置から取得した複数の画像にマッチングを施し画素ごとに第1の距離情報に変換する変換部と、横方向の光線分解能と縦方向の光線分解能の少なくとも一方が2度を超えるレーザ光を照射する照射部と、物体で前記レーザ光が反射した反射信号を取得する受光部と、物体からの反射に対応するピークを前記反射信号から検出して、前記照射部が前記レーザ光を照射してから前記ピークが観測されるまでの時間により第2の距離情報を算出する距離算出部と、前記第1の距離情報と前記第2の距離情報を統合する統合部と、を有することを特徴とする測距装置を提供する。
省スペース化又は低コスト化が可能な測距装置を提供することができる。
ステレオカメラ、レーザレーダ、及び、原理フュージョンそれぞれの空間分解能と距離分解能を対比して示す図である。 ステレオカメラとレーザレーダの距離に対する距離分解能と空間分解能の関係を示す図である。 粗い光線分解能の照射範囲における3つの物体の一例を示す図である。 レーザ光が物体で反射した反射信号を模式的に示す図の一例である。 移動体の一例である自動車に搭載された測距装置を示す図の一例である。 レーザレーダ測距部によるレーザ光の照射範囲について説明する図の一例である。 ルームミラーの前方に車載された測距装置の外観図の一例である。 測距装置の全体的な構成図の一例を示す図である。 測距装置のハードウェア構成例を示す図である。 近傍と遠方での受信される信号レベルの違いの一例を説明する図である。 レーザ光が照射されるシーンの一例を示す図である。 粗い光線分解能のレーザ光が照射された場合の照射イメージを示す図である。 図12のような粗い光線分解能を実現するためのレーザレーダ測距部の照射部の構成例を示す図である。 測距装置の構成図の一例である。 ブロックマッチングを説明する図の一例である。 シフト量毎のコストを示すグラフ図の一例である。 合成コストを導き出すための概念図である。 視差値毎の合成コストを示す合成コスト曲線のグラフ図の一例である。 視差空間の合成コストから変換された距離空間の合成コストの一例を示す図である。 LiDARコストの算出方法を説明する図の一例である。 距離算出部が算出する距離情報を説明する図の一例である。 合成コストとLiDARコストのフュージョンを模式的に示す図の一例である。 画素の置き換えを説明する図の一例である。 コストレベルのフュージョンの処理を説明するフローチャート図の一例である。 ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換えてフュージョンする処理を説明するフローチャート図の一例である。 ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換えてフュージョンする処理を説明するフローチャート図の一例である。 測距装置が測距するシーンと距離画像を示す図である
以下、本発明を実施するための形態の一例として、測距装置と測距装置が行う測距方法について図面を参照しながら説明する。
<ステレオカメラによる測距とレーザレーダによる測距のフュージョン>
ステレオカメラによる測距とレーザレーダによる測距のフュージョンについて補足する。LiDARがレーザを照射することから以下ではLiDARをレーザレーダと称して説明する。本実施形態では特に断らない限り両者を区別しない。レーザレーダが照射する光はレーザでなくLEDなどを光源としてもよい。
ステレオカメラには空間分解能は高いが遠方側の距離分解能が低いという特徴があり、レーザレーダには空間分解能は低いが測距分解能は高いという特徴がある。ステレオカメラにより得られる情報とレーザレーダにより得られる情報を初期段階でフュージョンする原理フュージョンでは、遠方でも距離分解能が高く、空間分解能も高い3次元高分解能測距画像出力を実現させることが可能となる。
したがって、原理フュージョンによりステレオカメラとレーザレーダの以下の課題を解決することができる。
1.ステレオカメラの課題
・測距精度:遠方ほど距離分解能が粗くなるため、遠方測距や遠方物体検出が難しい。
・耐物標性:繰返しパタンや低テクスチャでの誤マッチングが発生し分散の大きい距離値が多く発生する。
・耐環境性:夜間になるとテクスチャがほぼなくなるため距離算出が困難である。
・小型化:小型化するには基線長を短くしなければならない(演算性能が高いCPU等を採用しにくくなる)。すると、高精度化を目指して重い処理を入れていくと処理時間が長くなる。処理時間を短縮しようとすると小型で演算性能が高いCPU等を採用する必要があるためコストも高くなるなどの課題が挙げられる。
2.レーザレーダの課題
・遠方になるほど空間分解能が粗くなる。
・閾値を設定して距離値を出力する方式のため、その閾値を下回った反射信号はたとえピークがあったとしても無視される。特に、遠方に反射信号のピークがあった場合、せっかく信号は取れているにも関わらず使われない。
・数多くの発光素子や受光素子を搭載することは困難であるし、大きな発光素子や受光素子は搭載できない。このため、反射信号は微弱であり、反射信号のノイズレベルと物体に対応する反射信号のピークの大きさが比較的近くなってくる(信号のS/Nが低い)と、閾値設定方式では正しい距離を得にくくなる。
・発光素子の多層化や、細かい分解能を持たせる構成にすると、製造コストが増大し、1面の走査を高速にすることが困難になるなどのデメリットもある。
以上の課題を解決する原理フュージョンが目指す性能について説明する。
図1は、ステレオカメラ、レーザレーダ、及び、原理フュージョンそれぞれの空間分解能と距離分解能を対比して示す図である。図1に示すように、ステレオカメラの空間分解能は高く、レーザレーダの遠方の空間分解能は低いが、原理フュージョンにより遠方でも高い空間分解能が得られる。また、ステレオカメラの距離分解能は遠方で低く、レーザレーダの距離分解能は距離に関係なく高いが、原理フュージョンにより遠方でも高い距離分解能を達成できる。原理フュージョンでは、ステレオカメラとレーザレーダの測定原理を超えた性能が得られる。
原理フュージョンではステレオカメラとレーザレーダの測距性能の相乗効果により遠方に強く、反射光(戻り光)が弱くてもよい。レーザレーダの空間分解能を高くしなくてもステレオカメラと同レベルの空間分解能が得られるため、従来よりももっと粗い光線分解能で空間分離できる可能性がある。粗い光線分解能について図2を用いて説明する。
図2は、ステレオカメラとレーザレーダの距離に対する距離分解能と空間分解能の関係を示す図である。まず、図2(a)は距離分解能を示す。図1で説明したようにステレオカメラの距離分解能は遠方で急激に悪化する。
図2(b)は空間分解能を示す。図2(b)の右側の空間分解能はステレオカメラのものであるが、ステレオカメラの空間分解能は遠方でも高い。これに対し、LiDARの空間分解能は遠方で悪化する。図2(b)では、0.1、0.2、0.3、0.4、0.5、0.6〔deg〕それぞれの光線分解能に対しレーザ光の空間分解能が示されている。光線分解能とは1つのレーザ光が広がる方向の角度である。レーザ光は遠方に行くほど広がる性質を持っているが、光線分解能が大きいほど遠方での空間分解能が悪化する。
また、図2(b)では空間分解能が25〔cm〕と1.8〔m〕のラインが引かれている。25〔cm〕は歩行者の大きさであり、1.8〔m〕は車両の大きさである。例えば、200〔m〕先の車両をレーザ光で捕捉する場合を考える。光線分解能が0.5〔deg〕のレーザ光は200〔m〕先で1.8〔m〕未満に広がる。したがって、光線分解能が0.5〔deg〕以下のレーザ光であれば200〔m〕先の車両に光線面が当たる。つまり、200〔m〕先の車両であれば0.5〔deg〕などの比較的粗い光線分解能でも各車両を分離して検出できる可能性がある。
また、原理フュージョンではステレオカメラの空間分解能で空間分離できるため、レーザレーダの光線分解能は粗くてよい。粗いとは、例えば、0.1〜0.2〔deg〕のような高い光線分解能までは不要であることをいう。そして、粗い光線分解能でよければ後述するレーザレーダ測距装置(LiDAR)の省スペース化や低コスト化が可能になる。
<粗い光線分解能の一例>
図3は、粗い光線分解能の照射範囲における3つの物体A〜Cを示す。例えば、距離の関係が、A<B<Cである複数の物体A、B、Cがあるとする。粗い光線分解能のレーザ光は物体A〜Cを含む照射範囲101のほぼ全体をカバーして照射できる。すなわち、照射範囲101は、1回(1光線)のレーザ光で照射できる範囲である。
図4は、レーザ光が物体A〜Cで反射した反射信号を模式的に示す。図3に示したようにレーザ光は物体A〜Cに照射されているので、反射信号はマルチパルスとなる。マルチパルスとは1回のレーザ光の照射に対し複数の物体から反射信号が返ってくることをいう。図示するように、反射信号には物体A〜Cに対応する3つのピーク102〜104が得られている。
図4では3つのピーク102〜104が得られているため閾値と比較することで、物体A〜Cまでの距離を検出可能あるが、遠方の物体や反射係数が小さい物体からの反射信号ではピーク102〜104がノイズに埋もれてしまいピークが明確でない可能性がある。しかし、本実施形態では、原理フュージョンによりステレオカメラの情報を用いて距離を算出できるので、物体A〜Cそれぞれの距離面を分離することが可能になる。
<測距装置の適用例>
図5を用いて、測距装置100の適用例について説明する。図5は、移動体の一例である自動車200に搭載された測距装置100を示す図である。図5では、自動車200のフロントウィンドウの内側中央位置に、測距装置100が設定されている。測距装置100は、レーザレーダ測距部110とステレオカメラ部120とを有する。レーザレーダ測距部110とステレオカメラ部120はいずれも前方が測距範囲となるように設置されている。レーザレーダ測距部110は、ステレオカメラ部120が有するステレオカメラ(2つの撮像部)の間(好ましくは中央)に配置されるものとする。
レーザレーダ測距部110はLiDARと呼ばれ、レーザダイオードを使って可視スペクトル外のレーザ光をパルス状に照射し、そのパルスが戻ってくる時間を計測することで距離を算出する。このような距離の算出方法をTOF(Time Of Flight)方式という。ある瞬間のパルスが反射した方向と距離を、レーザレーダ測距部110を中心とした3D地図の中の点として記録する。
<レーザレーダ測距部のレーザの照射範囲>
図6は、レーザレーダ測距部110によるレーザ光の照射範囲について説明する図の一例である。図6(a)は、自動車200を上方から見た上面図であり、図6(b)は、自動車200を側方から見た側面図である。
図6(a)に示すように、レーザレーダ測距部110は、自動車200の進行方向の前方の所定範囲(横方向の照射範囲)を水平方向に走査しながらレーザ光を照射する。なお、レーザ光は光と捉えてもよいし電磁波と捉えてもよい。
また、図6(b)に示すように、レーザレーダ測距部110は、自動車200の進行方向の前方の所定範囲に向かってレーザ光を照射する。どの程度遠方までレーザが到達するかはレーザレーダ測距部110の出力によるが数百メートル程度の範囲で測距可能である。近い側の検出範囲は1メートル未満から検出可能であるが、通常、これほどの近距離領域では測距の必要性が低いため適宜、距離を検出する範囲が設定されていてよい。
レーザレーダ測距部110は、レーザ光の照射方向を、仰角方向に回転させながら水平方向に走査させることができるよう構成されている。これにより、レーザレーダ測距部110の設置位置を基準として、近傍から遠方までの照射範囲を照射することができる。
<測距装置の大きさについて>
例えば車載されるような測距装置100は可能な限り小さいサイズであることが好ましい。ステレオカメラは車両の前方を撮像する必要があるので、前方の視界を遮らないために設置位置が限られるためである。一般乗用車では車室内に設置されることも多く、限られたスペースに乗員の邪魔にならないように設置される。例えば、ルームミラーよりも前方でウィンドウガラス内に設置されることを考えると、ルームミラーを見たり操作したりする運転者が意識しないようなサイズであことが好ましい。
図7は、ルームミラー501の前方に車載された測距装置100の外観図の一例である。車幅方向の中央、かつ、ルームミラー501とウィンドウガラスの間のシーリングに測距装置100が設置されている。また、撮像装置として右カメラ11と左カメラ12の間にレーザレーダ測距部110が配置されている。つまり、右カメラ11、左カメラ12、レーザレーダ測距部110が直線上に配置されている。このようにレーザレーダ測距部110とステレオカメラ部120が1つの筐体に収納されることで、組み立て工程の数を低減できる。
運転者が測距装置100を意識しないためには、測距装置100の幅がルームミラー501の幅よりも狭いことが好ましい。ルームミラー501のサイズは様々であるが、例えば、一般的なルームミラーの幅が30〔cm〕であるとすると、測距装置100の幅も30〔cm〕以下であることが好ましい。
測距装置100の幅の下限として、右カメラ11と左カメラ12の間にレーザレーダ測距部110が配置されている形態では、レーザレーダ測距部110の幅より大きいことが必要になる。したがって、測距装置100の幅は、以下のようになる。
レーザレーダ測距部110の幅 < 測距装置100の幅 ≦ 30〔cm〕
レーザレーダ測距部110の幅は、設計、製造技術、及び要求する精度などによって変わると言えるが、例えば、4、5〔cm〕以上は必要であると考えられる。したがって、測距装置100の幅は、以下のようになる。
4〜5〔cm〕 ≦ 測距装置100の幅 ≦ 30〔cm〕
一方、ステレオカメラの基線長があまり短いと遠方の距離分解能が粗くなることが知られている(距離分解能は画素ピッチ、焦点距離にも影響されるため一概に決まらない)。例えば、好ましい性能が得られるステレオカメラの基線長を8cmとすると、測距装置100の幅もこれ以上となる。したがって、測距装置100の幅は、以下のようになる。
8〔cm〕 ≦ 測距装置100の幅 ≦ 30〔cm〕
このように、本実施形態の測距装置100は従来よりも大幅に小型化されたサイズで実現することができる。
<測距装置のハードウェア構成>
続いて、図8に基づき測距装置100の全体的な構成例について説明する。図8は、測距装置100の全体的な構成図の一例を示す図である。測距装置100は、レーザレーダ測距部110とステレオカメラ部120とが相互に必要な情報を送受信できるように構成される。ステレオカメラ部120は上記のように右カメラ11と左カメラ12に加え、基準画像と比較画像を処理して距離画像を出力するステレオカメラ部120を有している。
レーザレーダ測距部110は時系列に得られる反射信号をステレオカメラ部120に出力する。更に、照射方向ごとの距離情報を出力してもよい。ただし、距離情報は反射信号から算出可能である。
ステレオカメラ部120は照射方向ごとの反射信号を使って詳細な距離画像を生成し、ECU(エレクトロニックコントロールユニット)190に出力する。このように、レーザレーダ測距部110とステレオカメラ部120がフュージョンされることでより高精度な3次元情報の取得が可能になる。
なお、ステレオカメラ部120が、反射信号のどこにピークがあるかを予測する処理範囲をレーザレーダ測距部110に出力してもよい。ステレオカメラ部120はブロックマッチングで画素ごとの距離を算出しているので、照射範囲にある物体までの距離を推定できる。この推定される距離の前後を処理範囲とすると処理範囲に反射信号のピークがある可能性が高く、レーザレーダ測距部110は反射信号のうち処理範囲からピークを検出することで、ピークがノイズに埋もれていてもピークを検出できる。
図8では一例として、距離画像と基準画像がECU190(Electronic Control Unit:電子制御ユニット)に送出されている。ECU190は車両の電子制御ユニットである。なお、車載された測距装置100を車載装置という。ECU190は、測距装置100が出力する距離画像と基準画像を用いて各種の運転支援を行う。基準画像については種々のパターンマッチングを行い先行車両、歩行者、白線、信号機の状態の認識等を行う。
運転支援は車両によって様々であるが、例えば、対象物の横位置が自車両の車幅と重なる場合、距離と相対速度から算出されるTTC(Time To Collision)に応じて警報や制動などを行う。また、衝突までの停止が困難な場合、衝突を回避する方向にステアリングを操舵する。
また、ECU190は、車速に応じた車間距離で先行車に追従走行する全車速車間距離制御を行う。先行車が停車したら自車両も停車させ、先行車が発進したら自車両も発進する。また、ECU190が白線認識などを行う場合、走行レーンの中央を走行するように操舵するレーンキーピング制御や走行レーンから逸脱するおそれがあると走行方向を走行レーンに向けて変更する逸脱防止制御等を行うことができる。
また、停車時に進行方向に障害物がある場合、急発進を抑制することができる。例えば、シフトレバーの操作位置により判断される進行方向に障害物があり、かつ、アクセルペダルの操作量が大きい場合、エンジン出力を制限したり警報したりすることで被害を軽減する。
図9は、測距装置100のハードウェア構成例を示す図である。測距装置100は、センサステイ201と制御基板収納部202とを有する。このうち、演算を行う制御基板収納部202のみを測距装置100と称してもよい。この場合、複数のカメラ及びレーザ光の照射部と受光部を有するセンサステイ201及び制御基板収納部202を有する構成は測距システムとなる。
センサステイ201には、左カメラ12、右カメラ11及びレーザレーダ測距部110が取り付けられている。左カメラ12と右カメラ11に挟まれるこれらの直線上にレーザレーダ測距部110が配置されることで、測距装置100の小型化及び低コスト化を実現している。左カメラ12と右カメラ11の間隔を基線長というが、基線長が長い方が遠方の距離分解能を向上させやすい。測距装置100を小型化するには基線長を短くする必要があり、基線長を短くしながら精度を損なわないことが求められる。
制御基板収納部202には、レーザ信号処理部240、ステレオ画像演算部250、メモリ260、及び、MPU(Micro Processing Unit)270が収納されている。レーザ信号処理部240をレーザレーダ測距部110とは別体に構成することで、レーザレーダ測距部110のサイズを小さくすることができる。これにより、本実施形態では、左カメラ12と右カメラ11の間にレーザレーダ測距部110を配置することを実現している。
なお、図9の例では、レーザ信号処理部240とステレオ画像演算部250とを、別の回路基板として構成しているが、レーザ信号処理部240とステレオ画像演算部250とは、共通の回路基板により構成してもよい。回路基板の枚数を削減することで、低コスト化を図ることが可能となるからである。
続いて、センサステイ201側の各部について説明する。図9に示すように、左カメラ12は、カメラレンズ211と、撮像素子212と、センサ基板213とを備える。カメラレンズ211を介して入射された外部の光は、撮像素子212に受光され、所定のフレーム周期で光電変換される。光電変換されることで得た信号は、センサ基板213において処理され、1フレームごとの撮像画像が生成される。生成された撮像画像は、比較画像として、順次、ステレオ画像演算部250に送信される。
なお、右カメラ11も、左カメラ12と同様の構成を有しており、同期制御信号に基づいて左カメラ12と同期して撮像する。撮像画像は、基準画像として、順次、ステレオ画像演算部250に送信される。
レーザレーダ測距部110は、光源駆動回路231と、レーザ光源232と、投光レンズ233とを備える。光源駆動回路231は、レーザ信号処理部240からの同期制御信号に基づいて動作し、レーザ光源232に対して変調電流(光源発光信号)を印加する。これにより、レーザ光源232ではレーザ光を照射する。レーザ光源232より照射されたレーザ光は、投光レンズ233を介して外部に照射される。
なお、本実施形態では、レーザ光源232として、赤外半導体レーザダイオード(LD:Laser Diode)が用いられ、レーザ光として波長800nm〜950nmの近赤外光が照射されるものとする。また、レーザ光源232は、光源駆動回路231により印加された変調電流(光源発光信号)に応じて、パルス状の波形を有するレーザ光を周期的に照射するものとする。更に、レーザ光源232は、数ナノ秒から数百ナノ秒程度の短いパルス幅を有するパルス状のレーザ光を周期的に照射するものとする。ただし、レーザ光の波長やパルス幅をこれら限定するものではない。例えば、VCSEL(面発光レーザ)、有機EL素子、LED(発光ダイオード)等の他の発光素子を用いてもよい。
レーザ光源232から照射されたパルス状のレーザ光は、投光レンズ233を介して外部に照射された後、レーザ光の照射方向にある物体に照射される。なお、レーザ光源232から照射されるレーザ光は、投光レンズ233によって略平行光にコリメートされているため、照射されたオブジェクトにおける照射範囲は、予め設定された微小面積に抑えられる。
レーザレーダ測距部110は、更に、受光レンズ234と、受光素子235と、受光信号増幅回路236とを備える。照射方向の物体に照射されたレーザ光は、一様な方向に散乱する。そして、レーザレーダ測距部110から照射されたレーザ光と同じ光路をたどって反射してくる光成分のみが、反射光として受光レンズ234を介して受光素子235に導かれる。
本実施形態では、受光素子235として、シリコンPINフォトダイオードやアバランシェフォトダイオードが用いられる。受光素子235は、反射光を光電変換することで反射信号を生成し、受光信号増幅回路236は、生成された反射信号を増幅した後、レーザ信号処理部240に送信する。反射信号はレーザ信号処理部240への出力の前にデジタル信号に変換されてもよいし、レーザ信号処理部240がデジタル信号に変換してもよい。
続いて、制御基板収納部202側の各部について説明する。レーザ信号処理部240は、レーザレーダ測距部110より送信された反射信号と、反射信号により算出した距離情報をステレオ画像演算部250に送信する。レーザ信号処理部240が反射信号からピークを検出して距離情報を算出してもよい。本実施形態ではステレオ画像演算部250とレーザ信号処理部240のどちらが距離情報を算出してもよい。
ステレオ画像演算部250は、例えば、FPGA(Field−Programmable gate array)や、ASIC(Application Specific Integrated Circuit)等の専用の集積回路により構成される。ステレオ画像演算部250は、左カメラ12、右カメラ11及びレーザ信号処理部240に対して、撮像タイミング及びレーザ光の投受光タイミングを制御するための同期制御信号を出力する。
また、ステレオ画像演算部250は、左カメラ12より送信された比較画像、右カメラ11より送信された基準画像、レーザ信号処理部240より送信された反射信号に基づいて、距離画像を生成する。ステレオ画像演算部250は、生成した距離画像をメモリ260に格納する。
メモリ260は、ステレオ画像演算部250にて生成された距離画像と基準画像を格納する。また、メモリ260は、ステレオ画像演算部250及びMPU270が各種処理を実行する際のワークエリアを提供する。
MPU270は、制御基板収納部202に収納された各部を制御するとともに、メモリ260に格納された視差画像を解析する解析処理を行う。また、MPU270はECU190に距離画像と基準画像を送出する。
<TOF方式の測距方法の課題>
レーザ信号処理部240が行うTOF方式の測距方法では、式(1)のような形で信号が受信される。
Figure 2020003236
:反射信号受光量
L: 物体までの検出距離
RTgt: 物体の反射率
PO: 発光部の発光量
A: オプト系やメカ系で決まる定数
レーザ光を照射した時から、レーザ光が物体で反射して受光される時点までの時間によって、距離が計測できる。式1をみると分かるように、レーザレーダ測距部110が受信する信号Prの強さは、距離の2乗で影響される。たとえば、ターゲットの反射率Rtgtや、Ssndなどが同じ物体であるとし、距離Lが2倍になったとき(たとえば10〔m〕の場合と20〔m〕の場合)では、信号レベルは1/4になってしまう。
一方、距離レンジをかせぐためには、Poを強化する、TFGを向上させる、又は、Srcvを大きくするなどの対策がとられるが、Poを強化した場合、近距離部で信号が強すぎてサチュレーションを起こし、ピークがわからなくなって誤差が発生する可能性があるし、コストもかかる。Srcvを大きくするとモジュールが大きくなる、TFGを向上するにも劇的な向上は見込めない、などの不都合がある。
図10は、近傍と遠方での受信される信号レベルの違いの一例を説明する図である。図10(a)は、近傍の物体からの反射信号を示す。反射信号は信号Prのうちピークを示す部分であり、それ以外はノイズである。図10(a)に示すように、近傍の物体の信号レベルは強くノイズと区別して検出可能である。反射信号を検出した時点までの時間によって距離が算出される。信号Prからどのようにして反射信号を決定するかについては、種々の方法がある。たとえば、最大ピーク位置を検出する、又は、閾値以上の位置を複数検出する(マルチ検出)などの方法がある。一般には、閾値で反射信号を二値化する方法が採られるが、本実施形態では図10(a)のような反射信号をそのまま又はフィルタリング処理などを行ってステレオ画像演算部に出力する。ステレオ画像演算部は反射信号をコストに変換して、ブロックマッチングのコストとフュージョンさせる。なお、ブロックマッチングはブロック単位のマッチングでなく単なるマッチングでもよい。例えば、画素単位のマッチングでもよい。
図10(b)は遠方の物体からの反射信号を示す。遠方の物体は信号レベルが弱く、反射信号がノイズの強さとほとんど変わらない状況では、最大ピーク位置を検出する方法、又は、閾値以上の信号レベルを検出する方法のいずれの手法を使っても、反射信号の検出が難しい。
一般的には、近い距離から順に閾値以上の信号Prを反射信号としたり、ピーク位置を検出する方法が用いられる。しかし、図10(b)の例では、実質的な反射信号の強さは、その前に検出されているノイズと同様のレベルであり、全体的に見て反射信号を検出することは困難である。レーザレーダ測距部110は原理的にこの様な課題を抱えているが、本実施形態では、原理フュージョンを適用することで、ノイズレベルより少しでもピークが高くなっていれば、遠方の物体の距離を実用的な精度で検出できる可能性がある。
<本実施形態のレーザ光の光線分解能について>
本実施形態の測距装置100は、粗い光線分解能のレーザ光を照射することが特徴の1つとなっている。以下、図11、図12を用いて粗い光線分解能のレーザ光の照射について説明する。
図11は、レーザ光が照射されるシーンの一例を示す図である。図11(a)はレーザ光が照射されるシーンを、図11(b)は図11(a)の拡大図をそれぞれ示す。このように少なくとも物体を含む領域に測距装置100は粗い光線分解能のレーザ光を照射し、マルチパルスとなっている反射信号を使い、光線分解能以下にある物体を正しい距離面で分離させる画像処理を施す。すなわち、光線分解能は密ではなく粗くてよい。
図12は本実施形態の粗い光線分解能のレーザ光が照射された場合の照射イメージを示す。図12(a)では縦長の長方形が1つレーザ光の照射範囲101である。図12(b)では横長の長方形が1つのレーザ光の照射範囲101である。図12(c)ではほぼ正方形が1つのレーザ光の照射範囲101である。
遠方の物体ほど画像の上の方に撮像されるので、照射範囲が縦長の場合、距離が異なる複数の物体が1つの照射範囲101に含まれやすくなる。したがって、マルチパルスにおけるピークとピークの距離が生じピークを分離しやすくなる。複数のピークを検出できることにより1つの照射範囲101に含まれる複数の物体の距離面を分離しやすくなる。
照射範囲が横長の場合、1つの照射範囲101に距離が異なる物体が含まれることが少なくなり、1つの反射信号が有するピークの数が減ることが期待される。後述するように反射信号のピークは原理フュージョンに使用されるので、フュージョンの処理負荷を少なくすることができる。
このようにレーザ光の照射角度は、縦長でもよいし、横長でもよい。また、縦長と横長の照射範囲101が混在していてもよい。また、反射信号のマルチパルスのピークの大きさ(電圧値)は、ノイズレベルよりも少しでも高くなっていれば、微弱な信号であっても複数の物体ごとに面分離可能であることが期待される。
粗い光線分解能について定義する。粗い光線分解能とは、「縦分解能と横分解能の少なくともどちらか一方が2度を超える光線」であることをいう。粗い光線分解能のレーザ光を照射することで、正しい距離で面分離できるようになる。なお、従来のレーザ光の光線分解能の一例を挙げると、従来の光線分解能は横分解能が0.1度〜0.4度、縦分解能が2度くらいである。したがって、本実施形態の測距装置100の光線分解能は従来よりも粗くてよい。
図13は、図12のような粗い光線分解能を実現するためのレーザレーダ測距部110の照射部の構成例を示す図である。図13(a)に示すように、レーザレーダ測距部110は、レーザ光源232からの光を有効走査領域に向けて偏向走査する走査ミラー237を有している。この走査ミラー237にはMEMS機構でミラー部を駆動するMEMSミラーを用いてもよいし、モータによって多面鏡を回転させるポリゴンミラー、その他ガルバノミラーなどを用いてもよい。
レーザ光源232が発したレーザ光は投光レンズ233を通過して走査ミラー237に到達する。投光レンズ233はカップリングレンズ又はコリメートレンズであり、ビーム光が平行状態になるよう光学調整を行うレンズである。一般に、レーザ光源232と投光レンズ233までの距離は投光レンズ233の焦点距離と一致する。これに対し、本実施形態では、粗い光線分解能を実現するために、レーザ光源232と投光レンズ233までの距離を焦点距離よりもやや長くする。どのくらい長くするかは実験的に定めてよい。なお、焦点距離で調整する他、レーザ光を広げる特性がある凹パワーの投光レンズ233を用いてもよい。
照射範囲の形状を縦長又は横長にするには、レーザ光源232の照射口を縦長又は横長の形状の開口部を有するマスクで覆う方法がある。あるいは、図13(b)に示すように点光源のLD238を所望の照射範囲の形状(縦長、横長、正方形)に配置してもよい。図13(b)では複数のLD238が横長に配置されている。また、三角形や円形など任意の形状の照射範囲を形成してもよい。
この他、縦方向と横方向で焦点距離が異なるカップリングレンズを使用する方法、複数のレンズを組み合わせる方法等がある。
<ステレオ画像演算部の機能構成>
図14は、測距装置100のうち主にステレオ画像演算部250の機能をブロック状に示す図の一例である。図14に示すように、ステレオ画像演算部250は、ステレオカメラを形成する右カメラ11及び左カメラ12の基準画像と比較画像が入力される歪み補正部13、及び、原理フュージョンを行う距離演算部14を有する。なお、本実施形態では、右カメラ11により撮像される撮像画像を基準画像として用い、左カメラ12により撮像される撮像画像を比較画像として用いる。
歪み補正部13、及び、距離演算部14は専用の電子回路を用いて実現してもよいし、各部を実現するためのプログラムがCPU(コンピュータ)によって実行されることで実現されてもよい。したがって、この場合、ステレオ画像演算部250は情報処理装置の機能を有する。また、画像処理を行うという点から画像処理装置でもある。
歪み補正部13は、基準画像と比較画像に一般的な歪み補正を行う。この画像補正により、基準画像と比較画像は視差以外の差異が生じないように補正される。画像補正は事前のキャリブレーションにより可能になる。左カメラ12と右カメラ11は設置される際に、例えば、校正用の被写体(例えば市松模様のチャート)を撮像する。2つの画像を比較して、カメラのレンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等のハード的な内部誤差要因が最小になるように画像データを変換する幾何変換用のLUT(Look Up Table)が生成されている。歪み補正部13はこのようなLUTを参照して画像補正を行う。
距離演算部14は基準画像と比較画像にブロックマッチングやSGM伝播方式などのアルゴリズムを適用して視差を算出する。また、詳細は後述するが距離演算部14は、ステレオカメラ部120による情報とレーザレーダ測距部110による情報を初期段階でフュージョンする原理フュージョンを行う。
このため、距離演算部14は、情報取得部21、ステレオマッチング部23、SGM部24、距離補間部25、反射信号コスト変換部26、判断部27、距離算出部28、フュージョン部29、距離画像生成部30、及び、画素範囲決定部31を有している。
情報取得部21はレーザ信号処理部240から、照射されたレーザ光ごとに照射方向、距離情報、及び、反射信号を取得する。反射信号はアナログ信号でもデジタル信号でもよい。また、距離情報を取得しなくてもよい。
ステレオマッチング部23は基準画像と比較画像にブロックマッチングを行い、視差を算出する(視差に変換する)。SGM部24はSGM法(SGM伝播方式)で視差を算出する。距離補間部25は、視差空間のコストを距離空間(Z空間)のコストに変換し、更に、距離を等間隔に補間する。
反射信号コスト変換部26は、反射信号をLiDARコストCLI(p,Z)に変換する。
フュージョン部29は原理フュージョンを行う。すなわち、フュージョン部29は、ステレオマッチングコストCSTとLiDARコストCLI(p,Z)、又は、合成コストLs(p,d)とLiDARコストCLI(p,Z)をフュージョンする(統合する)。また、フュージョン部29は別のフュージョン方法として、照射範囲の画素が有する距離をレーザ信号処理部240が出力した反射信号のピークから求めた距離情報で置き換える原理フュージョンを行う。
距離算出部28は反射信号からピークを検出し、このピークが生じている距離を反射信号から算出する。つまり、距離算出部28は、ステレオ画像演算部250側でレーザ信号処理部240とは別の閾値等を使って距離情報を算出することができる。しかし、レーザ信号処理部240から送出される距離情報をそのまま処理に使用してもよく、この場合、距離算出部28はなくてよい。
画素範囲決定部31は、照射方向画素範囲テーブル32を参照して照射方向に基づいてレーザ光ごとに画素範囲を決定する。
判断部27はいくつかの判断を行う。
(i) 画素範囲に距離算出部28が算出した距離情報と同程度の距離があるか否かを判断する。画素範囲に距離算出部28が算出した距離情報と同程度の距離がある場合には該当する画素を決定する。
(ii) ブロックマッチングで得た画素の距離と同程度の距離情報のピークが反射信号にあるか否かを判断する。
これら(i)(ii)の判断は、本実施形態の原理フュージョンに用いられるものであり、詳細は後述される。
距離画像生成部30は、原理フュージョンで得られた各画素の距離を基準画像の画素に対応付けた距離画像を生成する。
なお、図14の構成は一例にすぎず、レーザ信号処理部240とステレオ画像演算部250が一体に構成されていてもよい。あるいはステレオ画像演算部250の一部の機能をレーザ信号処理部240が有していてよい。また、ECU190がステレオ画像演算部250の一部又は全体の機能を有していてもよい。
<ステレオカメラによる測距原理>
以下では、距離演算部14が有するステレオマッチング部23、SGM部24、距離補間部25、反射信号コスト変換部26、距離算出部28、フュージョン部29、及び、画素範囲決定部31について各機能を詳細に説明する。
(ステレオマッチング部)
図15(a)は基準画像における基準画素を示す概念図、図15(b)は図15(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)シフト量(ずれ量)を算出する際の概念図である。図16は、シフト量毎のコストを示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。
図15(a)及び図15(b)に示されているように、基準画像内の所定の基準画素p(x,y)と、この基準画素p(x,y)に対する比較画像内におけるエピポーラ線(Epipolar Line)上の複数の対応画素の候補q(x+d,y)との各輝度値に基づいて、基準画素p(x,y)に対する各対応画素の候補q(x+d,y)のコストC(p,d)が算出される。dは、基準画素pと対応画素の候補qのシフト量(ずれ量)であり、本実施形態では、画素単位のシフト量が表されている。すなわち、図15(a)及び図15(b)では、対応画素の候補q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、対応画素の候補q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるステレオマッチングコストCST(p,d)が算出される。ステレオマッチングコストCSTの算出方法としては、SAD(Sum of Absolute Difference)等の公知の方法が適用される。この場合、ステレオマッチングコストCSTは非類似度を示す。
このようにして算出されたステレオマッチングコストCST(p,d)は、図16に示されているように、シフト量d毎のステレオマッチングコストCSTの集まりであるコスト曲線のグラフによって表すことができる。図16では、ステレオマッチングコストCSTは、シフト量d=5,12,19の場合が0(ゼロ)となるため、最小値を求めることができない。このように、テクスチャが弱い物体の場合には、ステレオマッチングコストCSTの最小値を求めることは困難になる。
(SGM部)
続いて、図17、図18を用いて、SGM法を用いた測距方法について説明する。SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出す方法であり、基準画像に基づいて、高密度視差画像を導き出す方法である。SGM法はテクスチャが弱い道路等の詳細な情報を表すことができるため、より詳細な測距を行うことができる。
SGM法は、非類似度であるコストを算出して直ちに視差値を導出せず、コストを算出後、更に、合成非類似度である合成コスト(Synthesis Cost)を算出することで視差値を導出し、最終的にほぼ全ての画素における視差値を示す視差画像(高密度視差画像)を導き出す方法である。
図17は、合成コストを導き出すための概念図である。図18は、視差値毎の合成コストを示す合成コスト曲線のグラフである。本実施形態における合成コストの算出方法は、ステレオマッチングコストCST(p,d)だけでなく、所定の基準画素p(x,y)の周辺の画素を基準画素とした場合のコストを、基準画素p(x,y)におけるステレオマッチングコストCST(p,d)に集約させて、合成コストLs(p,d)を算出する。
合成コストの算出方法について、より詳細に説明する。合成コストLs(p,d)を算出するためには、まず、経路コストLr(p,d)を算出する必要がある。次の式(2)は、経路コストLr(p,d)を算出するための式であって、式(3)は、合成コストLsを算出するための式である。
Lr(p,d)=C(p,d)+min{(Lr(p−r,d),Lr(p−r,d−
1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+p2}…(2)
式(2)において、rは、集約方向の方向ベクトルを示し、x方向及びy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、式(2)に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。
また、式(2)に示されているように、Lr(p,d)は、基準画素p(x,y)におけるコストCに、図17に示されているr方向の各画素における各画素の経路コストLrの最小値を加算することで求められる。このように、r方向の各画素におけるLrを求めるため、最初は、基準画素p(x,y)のr方向の一番端の画素からLrが求められ、r方向に沿ってLrが求められる。
そして、図17に示されているように、8方向のLr0,Lr45,Lr90,Lr135,Lr180,Lr225,Lr270,Lr315求められ、最終的に式(3)に基づいて、合成コストLsが求められる。
Figure 2020003236

このようにして算出された合成コストLs(p,d)は、図18に示されているように、シフト量d毎に合成コストLs(p,d)が示される合成コスト曲線のグラフによって表すことができる。図18では、合成コストLsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として算出される。
なお、上記説明ではrの数を8として説明しているが、これに限られることはない。例えば、8方向を更に2つに分割して16方向、3つに分割して24方向等にしてもよい。
また、コストCは「非類似度」として示されているが、非類似度の逆数としての「類似度」として表されてもよい。この場合、コストCの算出方法としては、NCC(Normalized Cross Correlation)等の公知の方法が適用される。また、この場合、合成コストLsが最小ではなく「最大」となる視差値Δが導出される。なお、非類似度と類似度の両者を含めて、「一致度」として表してもよい。
なお、SGMはフュージョンの前に行ってもフュージョンの後に行ってもよい。また、SGMを行わなくてもよい。
(距離補間部)
距離補間部25は合成コストLs(p,d)をレーザレーダ測距部110が検出する反射信号とフュージョンさせるため、視差空間をZ空間(距離空間)に変換する。
図19は、合成コストLs(p,d)から変換された合成コストLs(p,Z)の一例を示す図である。図19では、SGM法で得た視差空間のコストがZ空間の合成コストLs(p,Z)に変換されている。視差dと距離Zの対応式(Z=BF/d)から分かるように、Z空間の等間隔に合成コストLs(p,Z)は得られない。
そこで、フュージョン部29はブロックマッチングで得たコストを等距離ごとに補間する。図19では丸がブロックマッチングで得たコストであり、四角形が補間で得たコストである。補間方法は、曲線近似に適した方法であればよく、例えば放物線fitting、高次多項式、スプライン曲線などを適用できる。図19では、補間により例えば3メートルごとに合成コストLs(p,Z)が算出されている。
補間を3メートルとするのは一例であり、この間隔はLiDARの距離分解能と同程度とすることが1つの選択方法になる。
(反射信号コスト変換部)
図20は、LiDARコストCLI(p,Z)の算出方法を説明する図の一例である。図20(a)はレーザ光310のパルスが照射したタイミングを模式的に示し、図20(b)は時系列にサンプリングされた反射信号311を示し、図20(c)はLiDARコストCLI(p,Z)の一例を示す。レーザレーダ測距部110はレーザ光310を照射すると、反射信号311の定期的なサンプリングを開始する。
1回のレーザ光310の照射に対しレーザレーダ測距部110がサンプリングを継続する時間は予め決まっている。例えば、距離にして約100〜200〔m〕に相当する時間である。
図20(b)に示す反射信号と時間の関係は、反射信号311の値が大きいほどその距離に物体が存在する確率が高いことを意味する。一方、LiDARコストCLI(p,Z)は、物体が存在する可能性が最も高い距離で最も小さくなる。したがって、フュージョンするには、反射信号311が小さいほど物体が存在する確率が高くなるような波形にすることが好ましい。このため、反射信号コスト変換部26は、図20(b)の反射信号311を図20(c)に示すLiDARコストCLI(p,Z)に変換する。変換には種々の方法があるが、反射信号311が最も大きい距離で、LiDARコストCLI(p,Z)が最も小さくなればよい。簡単な例としては、例えば、反射信号311のある一定値を中心に上下を反転させるような変換がある。あるいは、大きい値ほど小さくなるような関数で変換してもよい。
図20では、反射信号311が小さいほど物体が存在する確率が高くなるような波形に反射信号311が変換されているが、合成コストLs又はステレオマッチングコストCSTの波形を、物体が存在する可能性が最も高い距離で最も大きくなるようにステレオ画像演算部250が変形してもよい。
(画素範囲決定部)
図12では1つのレーザ光の照射範囲を示したが、各照射範囲が各画素範囲に対応する。レーザ光の照射範囲が固定(つまり、基準画像が切り替わってもほぼ同じ方向に各レーザ光が照射される)であるとすると照射方向が分かれば画素範囲を特定できる。1つの基準画像におけるレーザ光の照射方向は、基準画像が切り替わってもほぼ同じと見なせるので予め照射方向と画素範囲とを対応づけておくことができる。
Figure 2020003236
表1を用いて照射方向画素範囲テーブル32について説明する。表1は、照射方向画素範囲テーブル32の一例を示す。照射方向画素範囲テーブル32には照射方向と画素範囲が対応付けられている。照射方向のφは緯度方向の照射角度を、λは経度方向の照射角度をそれぞれ示す。画素範囲の(Xs、Ys)と(Xe、Ye)は基準画像の対角頂点の座標である。
照射方向画素範囲テーブル32により画素範囲決定部31は、レーザレーダ測距部110から取得した照射方向に基づいて画素範囲を特定できる。
なお、表1のように予め照射方向と画素範囲の対応を決定しておくのではなく、画素範囲決定部31が照射方向から画素範囲を算出してもよい。照射方向によりこの照射方向に照射されたレーザ光が当たる画素を特定できるため、この画素の上下左右に、照射範囲の形状に応じたマージンを加えることで画素範囲を算出できる。
(距離算出部)
図21は、距離算出部28が算出する距離情報を説明する図の一例である。距離算出部28は、反射信号から値が閾値Tth以上の時間Tを特定し。この時間Tから距離を算出する。図21に示すように例えば、閾値Tth以上の反射信号が3つの距離で検出された場合、レーザ光を照射してからピークが観測されるまでの時間T(図20参照)と光の速度から3つの距離La〜Lcを算出する。
物体までの距離=光の速度×T/2
したがって、距離算出部28は時間Tを距離情報に変換できる。
あるいは、閾値を用いずに値が大きい順に上位のN個のピークの距離を算出してもよい。これにより、遠方の物体の検出が可能になる。
(フュージョン部)
フュージョン部29は、主に2つの方法でレーザレーダ測距部110による情報とステレオカメラによる情報をフュージョンする(原理フュージョン)ことができる。1つはコストレベルでフュージョンする方法で、もう1つはブロックマッチングで得られた画素ごとの距離をレーザレーダ測距部110が検出した距離情報で置き換える方法である。いずれも原理フュージョンの一例である。
・コストレベルのフュージョン
まず、コストレベルのフュージョンを説明する。フュージョン部29は、合成コストLs(p,Z)とLiDARコストCLI(p,Z)をフュージョンして、コストC(p,Z)を算出する。なお、フュージョン部29はSGMが行われる前のステレオマッチングコストCST(p,Z)とLiDARコストCLI(p,Z)をフュージョンすることもできる。
図22は、合成コストLs(p,Z)とLiDARコストCLI(p,Z)のフュージョンを模式的に示す図の一例である。図22(a)はLiDARコストCLI(p,Z)を示し、図22(b)は合成コストLs(p,Z)を示す。フュージョン部29は、LiDARコストCLI(p,Z)に係数Aを乗じ、合成コストLs(p,Z)に係数Bを乗じて、同じ距離ごとに加算する。上記した合成コストLs(p,Z)の補間により、合成コストLs(p,Z)とLiDARコストCLI(p,Z)はほぼ同じ距離にコストが得られている。必要であれば、LiDARコストCLI(p,Z)も同様に補間されてよい。
これにより、図22(c)に示すように、合成コストLs(p,Z)とLiDARコストCLI(p,Z)をフュージョンさせることができる。
式では以下のようにフュージョンを表すことができる。
C(p,Z)=A×CLI(p,Z)+B×Ls(p,Z) …(4)
A:LiDARコストの係数(重み)
B:合成コストLsの係数(重み)
係数Aと係数BはLiDARコストと合成コストLs(p,Z)のどちらをフュージョンにおいて強く影響させるかという点で重要である。LiDARと合成コストLs(p,Z)にはそれぞれ精度がよい条件があるため、実験的に決定されてよい。また、環境条件(時間帯、天候、現在地等)ごとに係数A,Bが予め定められているテーブルから読み出して係数Aと係数Bを設定してもよい。また、ステレオカメラ部120が基準画像を物体認識することで基準画像の範囲ごとに写っているオブジェクトが分かるので、この範囲ごとに係数A,係数Bを切り替えてもよい。
・画素の置き換えによるフュージョン
次に、画素の置き換えによるフュージョンを説明する。フュージョン部29は、ブロックマッチングで得た画素ごとの距離を、反射信号から算出された距離で置き換える。
図23は、画素の置き換えを説明する図の一例である。1つのレーザ光が照射される照射範囲101には1つ以上の物体が存在しうる(ゼロ個の場合もある)。レーザレーダ測距部110が測定する反射信号にはこれらの物体がレーザ光を反射したことで生じるピークが含まれているはずである。したがって、信頼性の高い反射信号であればピークに対応する距離で、ブロックマッチングで得られた画素の距離を置き換えることで、画素が有する距離の精度を向上させることができる。
図23のように、反射信号から3つのピーク102〜104が検出され、1つのピーク102に対応する距離がLaであるとする。なお、距離Laは距離算出部28が算出する。照射範囲101にこの距離Laに近い距離の画素がある場合、この画素の距離はLaのはずである。フュージョン部29は、例えば、照射範囲101の画素ごとに画素が有する距離と、反射信号から算出された距離La〜Lcを比較し、同程度の場合、ブロックマッチングで得られた画素の距離を距離Laで置き換える。図23の例では、物体Aが写っている画素101aの距離が距離Laで置き換えられている。
こうすることで、距離Laに近い距離を有する画素は一定の距離Laを有することになるので、面分離しやすくなる。
なお、ブロックマッチングで得られた距離を反射信号のピークに対応する距離でそのまま置き換えるのでなく、両者を重み付けして合成してもよい。すなわち、以下のように合成後の距離を算出する。
合成後の距離=α×ブロックマッチングで得られた距離+β×反射信号のピークに対応する距離
なお、α+β=1である。フュージョン部29はαとβを例えば以下のように決定する。ピークの高さが高いほどβの信頼性が高いと見なして反射信号のピークの高さに応じてβを決定し、αは「1−β」から算出する。この場合は、反射信号のピークの高さとβが対応付けられたテーブルが用意される。
あるいは、ブロックマッチングで得た距離が小さいほど距離の信頼度が高いと見なして距離に応じてαを決定し、βは「1−α」から算出する。この場合は、画素が有する距離とαが対応付けられたテーブルが用意される。
また、あるいは、αとβを同様にそれぞれ決定し、両者の合計が1になるように調整してもよい。例えば、テーブルからαが0.6、βが0.5と決定された場合、(0.6+0.5)/1=1.1なので、α=0.6÷1.1=0.55、β=0.5÷1,1=0.45のように調整する。
こうすることで、ブロックマッチングで得られた距離と反射信号のピークに対応する距離の信頼度に応じて合成後の距離を算出できる。
<1.コストレベルでフュージョンを実行>
以下では、粗い光線分解能を照射するレーザレーダ測距部110による情報とステレオカメラ部120による情報のフュージョン(原理フュージョン)の3つの方法を説明する。
図24は、コストレベルのフュージョンの処理を説明するフローチャート図の一例である。図24の処理は基準画像と比較画像が1つずつ撮像されるごとに実行される。
まず、ステレオマッチング部23が基準画像と比較画像にブロックマッチングを行い、ステレオマッチングコストCSTを算出し、更に、画素ごとに距離を算出する(S10)。
レーザレーダ測距部110は1つの基準画像が撮像される間に、決まった回数のレーザ光を照射するので、情報取得部21はレーザレーダ測距部110から順次、レーザ光の照射方向と反射信号を取得する(S20)。以下の処理は1つのレーザパルスごと(照射範囲ごと)に実行される。
次に、画素範囲決定部31は照射方向画素範囲テーブル32から、照射方向に対応付けられている画素範囲を取得することで決定する(S30)。
また、距離算出部28は反射信号から値が閾値以上となっている距離を決定する(S40)。図4のように物体A〜Cに対応した3つのピークがある場合、距離La、Lb、Lcを決定する。この距離La〜Lcは1つの画素範囲に共通である。以下の処理はこの距離La〜Lcごとに実行される。説明の便宜上、距離Laに着目しているものとして説明する。
次に、判断部27は、距離Laと同程度の距離が、画素範囲にあるか否かを判断する(S50)。画素範囲の各画素はブロックマッチングで求められた距離を有している。同程度とは全く同じである他、距離Laに対し所定の許容範囲(例えば±10%など)の違いを有するものを含む。
ステップS50の判断がNoの場合、処理はステップS90に進み、距離Laの次の距離Lbについて同様の処理が行われる。
ステップS50の判断がYesの場合、距離補間部25は距離Laと同程度の距離を有する全ての画素についてステレオマッチングコストCSTの視差空間を距離空間に変換する(S60)。
次に、反射信号コスト変換部26はステップS30で決めた1つのレーザ光についてLiDARコストCLIを算出する(S70)。
次に、フュージョン部29は距離Laと同程度の距離を有する全ての画素についてステレオマッチングコストCSTとLiDARコストCLIをフュージョンする(S80)。
フュージョン部29は反射信号が閾値以上の距離La〜Lcの全てで処理を終了したか否かを判断する(S90)。ステップS90の判断がNoの場合、処理はステップS50に戻り、次の距離Lbについて処理される。
ステップS90の判断がYesの場合、フュージョン部29は1つの基準画像に対し照射されたレーザ光の全ての反射信号(全ての画素範囲)について処理が終了したか否かを判断する(S100)。ステップS100の判断がNoの場合、処理はステップS30に戻る。
ステップS100の判断がYesの場合、1つの基準画像についてフュージョンが完了したので、SGM部24が合成コストを算出する(S110)。
以上のようにして、光線分解能が粗いレーザ光が照射されても、フュージョンにより1つの画素範囲の複数の物体の距離面を面分離することができる。
なお、図24ではフュージョン後にSGMが行われているが、フュージョンの前にSGMが行われてもよい。この場合、例えばステップS10に続いてSGMが行われる。また、SGMは行われなくてもよい。
また、図24ではステップS40で閾値以上の反射信号が検出されているが、反射信号をデジタル処理(A/D変換等)して各ピークの距離を抽出してもよい。ステップS50〜S90ではこの各距離について処理される。
また、ステップS80ではステレオマッチングコストとLiDARコストがフュージョンされているが、ステレオマッチングコスト自体に反射信号をフュージョンしてもよい。
<2.ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換え>
図25は、ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換えてフュージョンする処理を説明するフローチャート図の一例である。図25の説明では、図24との差異を説明する場合がある。
ステップS101〜S104は図24のステップS10〜S40と同様でよい。なお、以下の処理はある画素範囲の画素ごとに実行される。
ステップS104に続いて、判断部27は、ある画素範囲の画素に着目し、ブロックマッチングで得た画素の距離に対応する距離がステップS104で反射信号から算出されたか否かを判断する(S105)。つまり、ステップS104で算出された距離La〜Lcと、画素が有する距離が同程度かどうかを判断する。
ステップS105の判断がNoの場合、次の画素について判断するため、処理はステップS107に進む。つまり、フュージョン部29は画素の距離を反射信号から算出された距離に置き換えない。
ステップS105の判断がYesの場合、フュージョン部29は着目している画素の距離を反射信号から算出された距離に置き換える(S106)。反射信号から3つの距離La〜Lcが算出された場合、距離La〜Lcのいずれかで画素の距離を置き換える。
次に、フュージョン部29は1つの画素範囲の全ての画素について終了したか否かを判断する(S107)。ステップS107の判断がNoの場合、次の画素についてフュージョンするため、処理はステップS105に戻る。このように画素範囲の画素ごとにフュージョンが実行される。
ステップS107の判断がYesの場合、フュージョン部29は1つの基準画像の全ての画素範囲について処理が終了したか否かを判断する(S108)。ステップS108の判断がNoの場合、処理はステップS103に戻る。
ステップS109の判断がYesの場合、SGM部24が合成コストを算出する(S110)。
以上のようにして、光線分解能が粗いレーザ光が照射されても、フュージョンにより1つの画素範囲の複数の物体の距離面を面分離することができる。
<3.ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換え>
図25の処理の変形例として、SGM後にフュージョンする手順を説明する。
図26は、ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換えてフュージョンする処理を説明するフローチャート図の一例である。図26の説明では、図25との差異を説明する場合がある。
図26の処理では、ステップS101に続いて、ステップS109でSGMによる合成コストが算出されている。このように、フュージョン前に合成コストが算出されても、同様にフュージョンすることができる。
<効果について>
図27を用いて本実施形態の測距装置100の効果について説明する。図27は測距装置100が測距するシーンと距離画像を示す図である。図27(a)に示すように、測距装置100は人物301と高反射板302を含む照射範囲101に1つのレーザ光を照射した。人物までの距離は約57〔m〕、高反射板までの距離は約147〔m〕である。反射信号には人物301のピークと高反射板302のピークが生じるいわゆるマルチパルスが得られた。
図27(b)は図27(a)の画像データの距離画像である。図27(b)の距離画像は、ブロックマッチングで得た画素の距離を反射信号から算出された距離情報で置き換える原理フュージョンで求められた。距離画像は色で距離を表すが、図27(b)では作図の便宜上、斜線等で距離を表している。同じ種類の斜線は同じ距離を表す。
図27(b)に示すように、人物301と高反射板302はそれぞれの別々の距離面で分離されている。すなわち、本実施形態の測距装置100は、人物と高反射板が重なるオクルージョン部分であっても正しい距離値で高精度に物体距離面の面分離を実現できていることが分かる。
<まとめ>
以上説明したように、本実施形態の測距装置100は、粗い光線分解能のレーザ光を照射するので、測距装置100の省スペース化又は低コスト化が可能になる。また、原理フュージョンでステレオカメラにより得られる情報とレーザレーダにより得られる情報を初期段階でフュージョンするので、複数の物体のマルチパルスが生じても距離画像を面分離することができる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
上記実施形態では、画素についてステレオマッチングコストCSTを算出する場合について説明したが、ステレオマッチングコストCSTの算出は、画素領域ごとに行うように構成してもよい。画素領域ごとに行われても、各画素には距離が設定される。
また、上記実施形態では、ステレオカメラ部120とレーザレーダ測距部110とが一体的に構成される場合について示したが、ステレオカメラ部120とレーザレーダ測距部110とは、別体により構成されてもよい。
また、上記実施形態では、レーザ信号処理部240では主にアナログ信号からピークを取りだし、ステレオ画像演算部250ではデジタル信号を扱っていたが、受光素子235が反射信号を受光した直後にレーザ信号処理部240がデジタル信号に変換して、デジタル信号からピークを取り出してもよい。
また、上記実施形態では、レーザ信号処理部240とステレオ画像演算部250が、専用の集積回路により構成されるものとして説明した。しかしながら、例えば、レーザ信号処理部240、ステレオ画像演算部250の機能を実現するソフトウェアのプログラムコードが記録された記憶媒体を情報処理装置が実行することで本実施形態の機能を実現してもよい。
また、上記実施形態では、測距装置100を車両140に取り付ける場合について説明した。しかしながら、測距装置100の取り付け先は車両140に限定されず、バイク、自転車、車椅子、農業用の耕運機等であってもよい。あるいは、自律移動ロボット等の移動体であってもよい。あるいは、ドローンなどの飛行体でもよい。あるいは、FA(Factory Automation)において固定設置される工業用ロボット等であってもよい。
また、ブロックマッチングの処理の一部以上をECU190が実行してもよいし、ECU190の処理の一部をステレオ画像演算部250が実行してもよい。
なお、ステレオマッチング部23は変換部の一例であり、レーザ光源232と投光レンズ233は照射部の一例であり、受光レンズ234と受光素子235は受光部の一例であり、距離算出部28は距離算出部の一例であり、フュージョン部29は統合部の一例である。ステレオマッチング部23がブロックマッチングで変換する距離は第1の距離情報の一例であり、距離算出部28が算出する距離情報は第2の距離情報の一例である。
11 右カメラ
12 左カメラ
100 測距装置
110 レーザレーダ測距部
120 ステレオカメラ部
140 車両
190 ECU
200 自動車
240 レーザ信号処理部
250 ステレオ画像演算部
特開2015−143679号公報

Claims (10)

  1. 複数の撮像装置から取得した複数の画像にマッチングを施し画素ごとに第1の距離情報に変換する変換部と、
    横方向の光線分解能と縦方向の光線分解能の少なくとも一方が2度を超えるレーザ光を照射する照射部と、
    物体で前記レーザ光が反射した反射信号を取得する受光部と、
    物体からの反射に対応するピークを前記反射信号から検出して、前記照射部が前記レーザ光を照射してから前記ピークが観測されるまでの時間により第2の距離情報を算出する距離算出部と、
    前記第1の距離情報と前記第2の距離情報を統合する統合部と、
    を有することを特徴とする測距装置。
  2. 更に、1つのレーザ光の照射範囲に対応する画素範囲を決定する画素範囲決定部を有し、
    前記統合部は、前記画素範囲の前記第1の距離情報と前記第2の距離情報を統合することを特徴とする請求項1に記載の測距装置。
  3. 前記受光部が受光した反射信号を値が大きいほど小さくなるLiDARコストに変換するコスト変換部、を有し、
    前記統合部は、ブロックマッチングにより得られた各画素のステレオマッチングコストと、前記LiDARコストとを統合することを特徴とする請求項2に記載の測距装置。
  4. 前記統合部は、前記反射信号のピークから求められた前記第2の距離情報と同程度の前記第1の距離情報を有する前記画素範囲の画素に対し、ブロックマッチングにより得られた各画素のステレオマッチングコストと、前記画素範囲に照射された前記LiDARコストとを統合することを特徴とする請求項3に記載の測距装置。
  5. 前記統合部は、前記画素範囲の画素に対しブロックマッチングにより得られた前記第2の距離情報と同程度の前記第1の距離情報が算出される前記ピークを前記反射信号が有する場合、
    前記画素範囲の画素が有する前記第2の距離情報を、前記画素範囲を照射範囲とするレーザ光の前記反射信号から得られた前記第1の距離情報で置き換えることを特徴とする請求項2に記載の測距装置。
  6. 前記照射部が照射するレーザ光は、縦の長さよりも横の長さの方が長い横長の照射範囲を有することを特徴とする請求項1〜5のいずれか1項に記載の測距装置。
  7. 前記照射部が照射するレーザ光は、縦の長さの方が横の長さよりも長い縦長の照射範囲を有することを特徴とする請求項1〜5のいずれか1項に記載の測距装置。
  8. 請求項1〜7のいずれか1項に記載の測距装置を有する移動体。
  9. 変換部が、複数の撮像装置から取得した複数の画像にマッチングを施し画素ごとに第1の距離情報に変換するステップと、
    照射部が、横方向の光線分解能と縦方向の光線分解能の少なくとも一方が2度を超えるレーザ光を照射するステップと、
    受光部が、物体で前記レーザ光が反射した反射信号を取得するステップと、
    距離算出部が、物体からの反射に対応するピークを前記反射信号から検出して、前記照射部が前記レーザ光を照射してから前記ピークが観測されるまでの時間により第2の距離情報を算出するステップと、
    統合部が、前記第1の距離情報と前記第2の距離情報を統合するステップと、
    を有することを特徴とする測距方法。
  10. 複数の撮像装置と、
    前記複数の撮像装置から取得した複数の画像にマッチングを施し画素ごとに第1の距離情報に変換する変換部と、
    横方向の光線分解能と縦方向の光線分解能の少なくとも一方が2度を超えるレーザ光を照射する照射部と、
    物体で前記レーザ光が反射した反射信号を取得する受光部と、
    物体からの反射に対応するピークを前記反射信号から検出して、前記照射部が前記レーザ光を照射してから前記ピークが観測されるまでの時間により第2の距離情報を算出する距離算出部と、
    前記第1の距離情報と前記第2の距離情報を統合する統合部と、
    を有することを特徴とする測距システム。
JP2018120207A 2018-06-25 2018-06-25 測距装置、移動体、測距方法、測距システム Pending JP2020003236A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018120207A JP2020003236A (ja) 2018-06-25 2018-06-25 測距装置、移動体、測距方法、測距システム
EP19177736.6A EP3588141B1 (en) 2018-06-25 2019-05-31 Distance-measuring apparatus, mobile object, distance-measuring method, and distance-measuring system
US16/442,704 US11391840B2 (en) 2018-06-25 2019-06-17 Distance-measuring apparatus, mobile object, distance-measuring method, and distance measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120207A JP2020003236A (ja) 2018-06-25 2018-06-25 測距装置、移動体、測距方法、測距システム

Publications (1)

Publication Number Publication Date
JP2020003236A true JP2020003236A (ja) 2020-01-09

Family

ID=66685476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120207A Pending JP2020003236A (ja) 2018-06-25 2018-06-25 測距装置、移動体、測距方法、測距システム

Country Status (3)

Country Link
US (1) US11391840B2 (ja)
EP (1) EP3588141B1 (ja)
JP (1) JP2020003236A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021140886A1 (ja) * 2020-01-10 2021-07-15 パナソニックIpマネジメント株式会社 三次元モデル生成方法、情報処理装置およびプログラム
KR20220101542A (ko) * 2021-01-11 2022-07-19 모본주식회사 탈부착 가능한 카메라-레이다 센서 시스템 및 이들의 오차 보상 방법
WO2022264773A1 (ja) * 2021-06-16 2022-12-22 株式会社デンソー 接着状態の検査方法及び光計測装置
JP7430886B2 (ja) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 距離測定装置、レーザレーダ及び移動ロボット

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003236A (ja) * 2018-06-25 2020-01-09 株式会社リコー 測距装置、移動体、測距方法、測距システム
JP7238422B2 (ja) 2019-01-22 2023-03-14 株式会社リコー 測距方法、測距装置、車載装置、移動体、測距システム
DE102019200733A1 (de) * 2019-01-22 2020-07-23 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens einer getrackten Messvorrichtung
JP7207038B2 (ja) 2019-03-14 2023-01-18 株式会社リコー 撮像装置、撮像光学系及び移動体
JP7255259B2 (ja) 2019-03-19 2023-04-11 株式会社リコー 検出装置、測距装置、時間測定方法、プログラム、移動体
JP2020190438A (ja) 2019-05-20 2020-11-26 株式会社リコー 計測装置および計測システム
US10837795B1 (en) * 2019-09-16 2020-11-17 Tusimple, Inc. Vehicle camera calibration system
CN111175769B (zh) * 2020-02-14 2022-05-27 深圳奥锐达科技有限公司 一种离轴扫描距离测量系统
CN111415385B (zh) * 2020-03-02 2022-03-11 武汉大学 激光雷达和多线阵相机组合系统的相对位姿参数优化方法
CN111640158B (zh) * 2020-06-11 2023-11-10 武汉斌果科技有限公司 基于对应掩模的端到端的摄像头与激光雷达外参标定方法
CN111965626B (zh) * 2020-08-11 2023-03-10 上海禾赛科技有限公司 用于激光雷达的回波检测校正方法及装置、环境感知系统
JP2022146480A (ja) * 2021-03-22 2022-10-05 リコーインダストリアルソリューションズ株式会社 ステレオカメラ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120314037A1 (en) * 2010-02-23 2012-12-13 Ben-Gurion University Of The Negev System and method for providing 3d imaging
JP2013120083A (ja) * 2011-12-06 2013-06-17 Honda Motor Co Ltd 環境認識装置
JP2015129734A (ja) * 2013-12-06 2015-07-16 株式会社リコー 物体検出装置及びセンシング装置
JP2018017506A (ja) * 2016-07-25 2018-02-01 株式会社リコー 視差演算システム、移動体及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4265931B2 (ja) 2003-05-22 2009-05-20 富士重工業株式会社 先行車両検出装置
EP3036558B1 (en) * 2013-08-19 2020-12-16 Basf Se Detector for determining a position of at least one object
GB2521523A (en) 2013-11-13 2015-06-24 Waters Technologies Corp A method and an apparatus for controlling fluid flowing through a chromatographic system
JP6528447B2 (ja) * 2014-02-25 2019-06-12 株式会社リコー 視差演算システム及び距離測定装置
US9756312B2 (en) * 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware
JP6805534B2 (ja) 2015-07-02 2020-12-23 株式会社リコー 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム
EP3223034B1 (en) 2016-03-16 2022-07-20 Ricoh Company, Ltd. Object detection apparatus and moveable apparatus
JP6942966B2 (ja) 2016-03-16 2021-09-29 株式会社リコー 物体検出装置及び移動体装置
WO2017165538A1 (en) * 2016-03-22 2017-09-28 Uru, Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
US10739456B2 (en) * 2016-06-17 2020-08-11 Kabushiki Kaisha Toshiba Distance measuring device
JP6862751B2 (ja) * 2016-10-14 2021-04-21 富士通株式会社 距離測定装置、距離測定方法及びプログラム
EP3514759A1 (en) * 2018-01-23 2019-07-24 Ricoh Company, Ltd. Image processing method, image processing apparatus, on-board device, moving body, and system
JP7119444B2 (ja) * 2018-03-13 2022-08-17 株式会社リコー 測距システム、測距方法、車載装置、車両
JP2020003236A (ja) * 2018-06-25 2020-01-09 株式会社リコー 測距装置、移動体、測距方法、測距システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120314037A1 (en) * 2010-02-23 2012-12-13 Ben-Gurion University Of The Negev System and method for providing 3d imaging
JP2013120083A (ja) * 2011-12-06 2013-06-17 Honda Motor Co Ltd 環境認識装置
JP2015129734A (ja) * 2013-12-06 2015-07-16 株式会社リコー 物体検出装置及びセンシング装置
JP2018017506A (ja) * 2016-07-25 2018-02-01 株式会社リコー 視差演算システム、移動体及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021140886A1 (ja) * 2020-01-10 2021-07-15 パナソニックIpマネジメント株式会社 三次元モデル生成方法、情報処理装置およびプログラム
KR20220101542A (ko) * 2021-01-11 2022-07-19 모본주식회사 탈부착 가능한 카메라-레이다 센서 시스템 및 이들의 오차 보상 방법
KR102529475B1 (ko) * 2021-01-11 2023-05-08 모본주식회사 탈부착 가능한 카메라-레이다 센서 시스템 및 이들의 오차 보상 방법
JP7430886B2 (ja) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 距離測定装置、レーザレーダ及び移動ロボット
WO2022264773A1 (ja) * 2021-06-16 2022-12-22 株式会社デンソー 接着状態の検査方法及び光計測装置

Also Published As

Publication number Publication date
EP3588141B1 (en) 2023-09-13
US20190391244A1 (en) 2019-12-26
EP3588141A1 (en) 2020-01-01
US11391840B2 (en) 2022-07-19

Similar Documents

Publication Publication Date Title
JP2020003236A (ja) 測距装置、移動体、測距方法、測距システム
US10908257B2 (en) Signal processing apparatus, signal processing method, and program
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
KR102020037B1 (ko) 하이브리드 라이다 스캐너
US10891751B2 (en) Range image generating method, range image generating apparatus, and on-board device having range image generating function
JP2019128350A (ja) 画像処理方法、画像処理装置、車載装置、移動体、システム
US11520019B2 (en) Light signal detection device, range finding device, and detection method
JP7119444B2 (ja) 測距システム、測距方法、車載装置、車両
KR101868293B1 (ko) 차량용 라이다 장치
WO2023183599A1 (en) Lidar system communication using data encoding for communicating point cloud data
US20220413102A1 (en) Lidar systems and methods for vehicle corner mount
US20220283311A1 (en) Enhancement of lidar road detection
US11871130B2 (en) Compact perception device
US11768294B2 (en) Compact lidar systems for vehicle contour fitting
US20230324526A1 (en) Method for accurate time-of-flight calculation on the cost-effective tof lidar system
US20230305161A1 (en) Real-time monitoring dc offset of adc data of lidar system
US20230341532A1 (en) Dynamic calibration method of avalanche photodiodes on lidar
US20240103174A1 (en) Point cloud data compression via below horizon region definition
US20230305124A1 (en) Methods and systems of window blockage detection for lidar
US20240103138A1 (en) Stray light filter structures for lidar detector array
US20240118401A1 (en) Methods and systems for tracking zero-angle of a galvanometer mirror
US20230305125A1 (en) Methods and systems for detection of galvanometer mirror zero position angle offset and fault detection in lidar
US20230366984A1 (en) Dual emitting co-axial lidar system with zero blind zone
US20230305115A1 (en) Lidar system communication using data encoding for communicating point cloud data
US20220342044A1 (en) Lidar scanner with pivot prism and mirror

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823