JP2020148475A - Ranging sensor - Google Patents
Ranging sensor Download PDFInfo
- Publication number
- JP2020148475A JP2020148475A JP2019043556A JP2019043556A JP2020148475A JP 2020148475 A JP2020148475 A JP 2020148475A JP 2019043556 A JP2019043556 A JP 2019043556A JP 2019043556 A JP2019043556 A JP 2019043556A JP 2020148475 A JP2020148475 A JP 2020148475A
- Authority
- JP
- Japan
- Prior art keywords
- light
- distance
- line light
- line
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000005259 measurement Methods 0.000 claims description 51
- 238000000034 method Methods 0.000 claims description 42
- 230000002093 peripheral effect Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 2
- 230000005855 radiation Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 22
- 230000010355 oscillation Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 230000009977 dual effect Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010408 sweeping Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
本発明は、測距センサに関する。 The present invention relates to a distance measuring sensor.
近年、3次元計測の用途が広がりつつある。自動車、ドローン、ロボットなどに搭載されるレーザレーダ(LIDAR)、パソコンやスマートフォンに搭載され顔認証などを行う3Dセンサ、安全監視システム、製造現場での自動検査装置などは、3次元計測の代表である。 In recent years, the applications of three-dimensional measurement are expanding. Laser radar (LIDAR) mounted on automobiles, drones, robots, etc., 3D sensors mounted on personal computers and smartphones for face recognition, safety monitoring systems, automatic inspection devices at manufacturing sites, etc. are representative of 3D measurement. is there.
測距の方式は、大きく、三角測量方式とTOF(Time Of Flight)方式に分けられる。三角測量方式は、近距離を高精度に測定する用途で利用され、TOF方式は、遠距離を測定する用途で利用される。 The distance measurement method can be broadly divided into a triangulation method and a TOF (Time Of Flight) method. The triangulation method is used for measuring short distances with high accuracy, and the TOF method is used for measuring long distances.
中長距離を対象とする車載用途において、単眼カメラあるいはステレオカメラによる三角測量方式が採用される例があるが、いずれの方式も、膨大な画像処理を伴うものであり、高いフレームレートのためには高速なプロセッサが必要であり、コストが高くなるという問題がある。 There are cases where a triangulation method using a monocular camera or a stereo camera is adopted for in-vehicle applications targeting medium and long distances, but both methods involve enormous image processing and are due to the high frame rate. Requires a high-speed processor, which has the problem of high cost.
三角測量方式としては、光切断法も知られている(特許文献1)。光切断法は、ライン状の光を物体にスキャン照射して三角測量を行うものであり、単眼あるいはステレオカメラによる方式に比べて、演算量を減らすことができる。しかしながら従来の光切断方法の用途は、近距離に限定されており、また高いフレームレートでの測距が困難であった。またライン光をスキャンするために、可動ステージあるいはガルバノミラーを用いる必要があり、装置が複雑化するという問題があった。 As a triangulation method, an optical cutting method is also known (Patent Document 1). The light cutting method scans and irradiates an object with line-shaped light to perform triangulation, and can reduce the amount of calculation as compared with the method using a monocular or stereo camera. However, the use of the conventional optical cutting method is limited to a short distance, and it is difficult to measure the distance at a high frame rate. Further, in order to scan the line light, it is necessary to use a movable stage or a galvanometer mirror, which causes a problem that the apparatus becomes complicated.
本発明はかかる状況においてなされたものであり、そのある態様の例示的な目的のひとつは、中長距離を対象とする三角測量法式の測距センサを提供することにある。 The present invention has been made in such a situation, and one of the exemplary objects of the embodiment is to provide a triangulation distance measuring sensor for medium and long distances.
本発明のある態様は、測距センサに関する。測距センサは、遠視野像がライン形状となるライン光をデバイス表面から出射可能であり、ライン光の偏向角θsが可変に構成される光放射構造を含むビーム偏向デバイスと、ライン光が照射された対象物を撮像するイメージセンサと、ライン光の偏向角θsを変化させることにより、ライン光を掃引するとともに、イメージセンサの画像データにもとづいて、対象物までの距離または対象物の3次元形状を測定する処理部と、を備える。 One aspect of the present invention relates to a ranging sensor. The ranging sensor can emit line light having a line shape in a far-field image from the device surface, and is irradiated with a beam deflection device including a light emission structure in which the deflection angle θs of the line light is variably configured. By changing the deflection angle θs of the line light and the image sensor that captures the image of the object, the line light is swept, and the distance to the object or the three dimensions of the object is based on the image data of the image sensor. It is provided with a processing unit for measuring the shape.
本発明のある態様によれば、長距離の測距を高速化し、あるいは高精度化できる。 According to an aspect of the present invention, long-distance distance measurement can be increased in speed or accuracy.
以下、実施形態についていくつかの図面を参照しながら詳細に説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。 Hereinafter, embodiments will be described in detail with reference to some drawings. In the following description, components having substantially the same function and configuration are designated by the same reference numerals, and duplicate explanations will be given only when necessary.
図1は、本実施形態に係る測距センサ1の概略的なブロック図である。測距センサ1は、主としてビーム偏向デバイス2、カメラ4、および処理部8を備える。
FIG. 1 is a schematic block diagram of the
ビーム偏向デバイス2は、測定対象物Obに後述する時間プロファイルに基づいたライン光の掃引パターン200を照射する。図1では測定対象物Obとして仮想的な平面、もしくは参照平面RSを示している。
The
ビーム偏向デバイス2は、遠視野像がライン形状であるライン光Li(i=1,2,・・・N)をデバイス表面から出射する光放射構造20を含み、ライン光Liが放射される偏向角θsが可変に構成される。ここでは、デバイス表面に対して垂直方向をθs=0とする。
The
処理部8は、ライン光Liの偏向角θsを変化させることにより、ライン光Liの照射位置を掃引する。この機能は、処理部8の光掃引制御部3によって実行される。図1には、ライン光を掃引した結果得られる掃引パターン200の一例が示される。この掃引パターン200は、第1方向(図中、X方向)に離間する複数のライン光L1〜Lnを含み、各ライン光Li(添字iで代表する)は、第2方向(Y方向)が長手である。これをライン長と定義する。なお測定対象に対して、複数のライン光L1〜Lnが同時に照射されることはなく、ある時刻では、一つのライン光Liのみが測定対象に照射される。
The processing unit 8 sweeps the irradiation position of the line light Li by changing the deflection angle θs of the line light Li. This function is executed by the light
光掃引制御部3は、所定の参照面RS上に所望のライン光の掃引パターン200を発生させるための時間プロファイルに基づいて、光放射構造20から出射するライン光L1〜Lnの偏向角θsを制御する。
The light
カメラ4は、測定対象物Obに投光されたライン光L1〜Lnを順次イメージセンサに撮像する。
The
処理部8は、イメージセンサ4により得られた画像データにもとづいて、対象物までの距離または対象物の3次元形状を測定する。この機能は処理部8の距離画像生成部5によって実行される。
The processing unit 8 measures the distance to the object or the three-dimensional shape of the object based on the image data obtained by the
距離画像生成部5は、カメラ4で撮像された画像データに含まれるライン光LiのX方向の画素位置の情報を、ビーム偏向デバイス2からライン光Liの照射スポットまでの距離情報に変換する。光掃引制御部3と距離画像生成部5とは、動画対応のフレームレートの周波数に同期して動作し、距離画像生成部5は動画対応の3次元距離動画を出力することができる。処理部8は、CPU(Central Processing Unit)やFPGA(Field Programmable Gate Array)などのひとつのハードウェアであってもよい。あるいは、光掃引制御部3と距離画像生成部5は、別々のハードウェアとして実装してもよい。
The distance
図2は、図1に示す測距センサの概略的動作を説明する図である。本実施形態の測距センサは、時間プロファイルに基づいて所望のライン光の掃引パターン200が形成される。
FIG. 2 is a diagram illustrating a schematic operation of the distance measuring sensor shown in FIG. In the ranging sensor of this embodiment, a desired line
光掃引制御部3は、まず測距すべき偏向角θsの範囲θminとθmaxを設定する。この偏向角の範囲内に対して掃引するライン光数nを設定する。このライン光数nは、最終的に得られる3次元距離画像の解像度となる。図2では、光掃引制御部3が時間とともにビーム偏向デバイス2から放射するライン光の偏向角θs(θ1〜θn)を時間tとともに連続的にスイープする例を示している。
The light
例えば時間t1において偏向角θsがθ1となった場合には、ライン光L1の強度Ipをパルス状に時間変化させる。これをn回繰り返すことで、図1のライン光の掃引パターン200が得られる。ここで、時間t1〜tnをライン光の発光タイミングtsと定義する。また、図2では、偏向角θsを一定の傾きで連続的にスイープさせる例を示したが、各ライン光Lnの発光期間中は偏向角θsのスイープを一旦停止してもよい。偏向角θsのスイープを停止することで偏向角θsの精度を上げることができる。
For example, when the deflection angle θs becomes θ1 at time t1, the intensity Ip of the line light L1 is changed with time in a pulsed manner. By repeating this n times, the
以上が測距センサ1の動作である。続いてその利点を説明する。測距センサ1によれば、単眼カメラあるいはステレオカメラを用いた三角測量方式に比べて格段に少ない演算量で、中長距離における3次元計測が可能となる。またライン光のスキャンに、可動ステージやガルバノミラーが不要であるため、装置を簡素化し、コストを下げることができる。
The above is the operation of the
本発明は、図1のブロック図として把握され、あるいは上述の説明から導かれるさまざまな装置、回路に及ぶものであり、特定の構成に限定されるものではない。以下、本発明の範囲を狭めるためではなく、発明の本質や動作の理解を助け、またそれらを明確化するために、より具体的な実施例や変形例を説明する。 The present invention extends to various devices and circuits grasped as the block diagram of FIG. 1 or derived from the above description, and is not limited to a specific configuration. Hereinafter, more specific examples and modifications will be described not for narrowing the scope of the present invention but for helping to understand the essence and operation of the invention and clarifying them.
(第1の実施形態)
図3は、第1の実施形態に係る測距センサのブロック図である。測距センサ1は、図1と同様にビーム偏向デバイス2、ビーム偏向デバイス2から出射するビームを制御する光掃引制御部3、ビーム偏向デバイス2から出射し、測定対象物を投光したビームを2次元画素上で撮像検知するカメラ4、カメラ4の撮像信号から測定対象物の3次元距離を判定し、3次元距離画像を生成する距離画像生成部5、および時間プロファイルを始めとする種々の制御データを格納するメモリ6を有している。さらには、時間プロファイルに関連する各種パラメータを同期させて制御する同期部7を備える。
(First Embodiment)
FIG. 3 is a block diagram of the distance measuring sensor according to the first embodiment. Similar to FIG. 1, the ranging
ビーム偏向デバイス2は、遠視野像がライン形状のライン光をデバイス表面から直接出射する光放射構造20と、ライン光を偏向角が異なる方向(図中ではθ1〜θn)に掃引する光掃引構造21を有する。また、光掃引制御部3はデバイスの表面から直接出射するライン光を時間的に所定の偏向角で順次掃引し、距離Zsだけ離れた参照面RS上に所定のライン間隔で、所定数のラインからなるライン光の掃引パターン200を生成する。
The
この光掃引制御部3は、参照面RS上に投光するライン光の掃引パターン200を設定する時間プロファイル設定部31、ライン光の掃引パターン200に応じた制御波長を設定する波長設定部32、およびビーム偏向デバイス2を駆動する駆動部33を有する。
The light
カメラ4は、焦点距離fを有するレンズ41と測定対象物に投光されたライン光の掃引パターンを撮像するイメージセンサ42を有する。このイメージセンサ42は、好ましくはグローバルシャッター方式のイメージセンサであるが、動作速度が高速のものであれば、ローリングシャッタ方式のイメージセンサでも構わない。
The
距離画像生成部5は、イメージセンサ42の画素範囲を時間プロファイルに同期して選択する画素範囲選択部501、イメージセンサ42で撮像されるライン光の画素位置と画素値に基づいてライン光のラインピークをサブピクセルの精度で算出するピーク位置算出部502、ライン光の偏向角θsに対するラインピークを用いて測定対象物までの距離を測定する距離測定部503、および画像生成のフレームレートを設定するフレームレート設定部504を有している。
The distance
距離画像生成部5は、カメラ4で撮像されたライン光のライン歪みと、ライン光の発光タイミングtsと偏向角θsに基づいて、測定対象物までの距離(3次元位置)を三角測量の手法を用いて測定する。ライン光の掃引パターン200を形成するライン光L1〜Ln全てに対して、測定対象物の3次元距離を求めることで3次元距離画像を生成する。
The distance
メモリ6は、ビーム偏向デバイス2から出射するビームを制御するための時間プロファイル、同期のための制御データ、3次元距離測定のためのキャリブレーションデータ、および測定された測定対象物の3次元距離画像データなど各種のデータを保存する。
The
同期部7は、3次元距離画像データが取得できるようにメモリ6の各種データを用いて光掃引制御部3と距離画像生成部5とを同期させる。例えば、所定の偏向角範囲内を所定の解像度のライン光で掃引する時間プロファイルにより、画像1フレームを形成し、この時間プロファイルを所定の動画映像のフレームレートと同期して繰り返すことにより、移動する測定対象物の3次元距離画像を生成する。図中のパラメータfrはフレームレート、fsはライン光の掃引周波数、tsはライン光の発光タイミング、θsはライン光の偏向角である。これらのパラメータは例示のためのパラメータであって、同期部7で使用するパラメータはこれだけに限定されない。
The synchronization unit 7 synchronizes the light
距離画像生成部5は、取得した3次元距離画像を静止画像または動画などの所定の形式で出力する。そしてこの3次元距離画像データの特徴点などを解析する図示しないAI(Artificial Intelligence)処理部やモニタ等に出力する。また、可視画像に3次元距離画像をスーパーインポーズして表示してもよい。
The distance
図4は、一実施例に係る光放射構造20の断面図である。この光放射構造20は、半導体基板23上に集積化されたVCSEL(Vertical Cavity Surface Emitting Laser)構造22を有する半導体デバイスであって、VCSEL構造22は、半導体基板23上に形成された下部DBR(Distributed Bragg Reflector)24、活性層25、上部DBR26を備え、上部DBR26と下部DBR24で多重反射されたスローライト光を伝搬させる。このVCSEL構造22は、垂直方向(Z方向)の共振長で定まる固有の発振波長λ2を有している。
FIG. 4 is a cross-sectional view of the
光放射構造20は、活性層25にてスローライト光を増幅させながら伝搬させるため、導波路長は、2mm〜10mm程度に長尺化される。駆動部33は、光放射構造20に発振しきい値電流より大きな電流を注入し、VCSEL構造22の共振器長で決定する波長λ2で発振させる。この状態で、光放射構造20の一端側に設けられた入射口27からコヒーレントな入射光Liが入力されると、入射光Liは略垂直方向に多重反射するスローライト光として増幅されながら伝搬し、光放射構造20の表面上部に形成された出射口28から、放射角θsの出射光Loが放射され、出射光Loの遠視野像は、ライン形状となる。
Since the
ここで光掃引構造21は、コヒーレントな入射光Liを発生するシード光源21sを用いることができて、波長可変レーザ(TLD:Tunable Laser Diode)構造を有する。シード光源21sは、端面出射型のTLDでも構わないが、シード光源21sが光放射構造20と一体に集積される構造の方が小型化には効果的である。
Here, the
光放射構造20は、シード光Liの波長λ1に応じた放射角θsで、出射光Loを放射する。光放射構造20内におけるスローライト光の多重反射角をθi、出射光Loの出射角をθsとするとき、式(1)が成り立つ。
The
sinθs=nsinθi=n√(1−(λ1/λc)2) …(1)
nは光放射構造20の導波路の屈折率であり、λcは導波路のカットオフ波長であり、λ2と等しい。
sinθs = nsinθi = n√ (1- (λ1 / λc) 2 )… (1)
n is the refractive index of the waveguide of the
この光放射構造20は、しきい値電流より大きな電流が注入されているため、入射光Liが入射しないときは単体発振波長λ2での発振状態が維持されるが、波長λ1の入射光Liが入力されると、入射光Liは、多重反射するスローライト光として増幅されながら伝搬するため、単体発振波長λ2の成分は非常に小さくなる。
Since the
この時、出射光Loは、波面の揃ったコヒーレントな光となるため、放射角θs方向に極めて狭いビーム広がり角Δθdivを有する。このビーム広がり角Δθdivは、光放射構造20の出射口28の長手方向の開口幅WLを用いて、式(2)で与えられる。
At this time, the emitted light Lo has a beam spreading angle Δθdiv that is extremely narrow in the radiation angle θs direction because it becomes coherent light with a uniform wave surface. The beam spread angle Δθdiv is given by the equation (2) using the aperture width WL in the longitudinal direction of the
Δθdiv≒λ1/(WL・cosθs) … (2)
すなわち、出射口28の開口幅WLが長いほどビーム広がり角Δθdivは狭くなり、同時に高出力化が達成される。
Δθdiv≈λ1 / (WL · cosθs)… (2)
That is, the longer the opening width WL of the
図5は、図4の光放射構造20から放射されるライン光の掃引パターンの概念図である。図5を用いて本実施形態で生成するライン光の掃引パターンについて説明する。光放射構造20の左側から波長λ1のシード光を入力すると、光放射構造20内を多重反射するスローライト光が伝搬し、式(1)に従って偏向角θs方向に、ビーム広がり角が非常に狭い光ビームが出射口28から出射される。今、光放射構造20からの距離がZsであり、光放射構造20が配置される平面と平行な参照面RSを考え、この参照面RS上に例えば、等間隔なn本(nは自然数)のライン光からなるライン光の掃引パターンパターンを形成することを考える。出射口28から出射された光ビームは、参照面RS上にてライン形状となり、シード光の波長λ1を時間的に掃引(t1〜tn)することで、偏向角θsが変化し、参照面RS上にマルチラインのライン光の掃引パターンパターン(L1〜Ln)が形成される。光放射構造20から放射されるライン光の幅は、式(2)に示すように、光放射構造20の長さを長くすることで狭くすることができ、かつ光出力も大きくできるため、ライン光強度を高めることができる。これにより明るい環境下におけるS/N比を高めることができる。
FIG. 5 is a conceptual diagram of a sweep pattern of line light emitted from the
最大の偏向角θs_maxは、シード光の波長λ1の掃引範囲によって決定される。具体的には、シード光の波長λ1をカットオフ波長の近傍の990nmから950nmまで約40nm掃引すると、偏向角が約10°〜75°となり、最大の偏向角θs_maxは60°を超える結果が得られている。この時の解像点数は1000を超える高解像度である。 The maximum deflection angle θs_max is determined by the sweep range of the wavelength λ1 of the seed light. Specifically, when the wavelength λ1 of the seed light is swept from 990 nm to 950 nm near the cutoff wavelength by about 40 nm, the deflection angle becomes about 10 ° to 75 °, and the maximum deflection angle θs_max exceeds 60 °. Has been done. The number of resolution points at this time is a high resolution exceeding 1000.
次に参照面RS上での各ラインのライン長について説明する。図6は、ライン光のライン長を説明する図である。例えば、図5で略垂直方向(即ちθs=0)に放射しているライン光L1に対するライン長は、出射口28の横方向の開口幅WTによって概ね決定する。放射する光の電界が開口幅で一様であると仮定すると、遠方での遠視野像は、フラウンホーファ回折となりSINC関数の2乗の強度分布となる。ライン端において電界強度40が0となるライン長を定義するとすれば、ライン長LTは、回折角θdで決定され、式(3a)、(3b)が成り立つ。
LT=2Zs・tan(θd/2) … (3a)
θd≒λ/WT …(3b)
光放射構造20からの距離Zs(図中、Zs1,Zs2)に対応してライン長LT1、LT2が求まる。すなわち、測定対象物の大きさと、測定対象物までの距離Zsに応じて適切な開口幅WTを設定し、所望のライン長LTを得る必要がある。
Next, the line length of each line on the reference surface RS will be described. FIG. 6 is a diagram for explaining the line length of the line light. For example, the line length with respect to the line light L1 radiating in the substantially vertical direction (that is, θs = 0) in FIG. 5 is largely determined by the lateral opening width WT of the
LT = 2Zs · tan (θd / 2)… (3a)
θd≈λ / WT ... (3b)
The line lengths LT1 and LT2 can be obtained corresponding to the distance Zs (Zs1, Zs2 in the figure) from the
図7は、一実施例に係る熱駆動方式のビーム偏向デバイスの断面図である。このビーム偏向デバイス2は、シード光源21sと光放射構造20がモノリシックに集積される。ここで光掃引構造21は、シード光源21s、光放射構造20、そしてそれらを加熱するヒータ51、52、温度制御を行う熱駆動部53を有する。
FIG. 7 is a cross-sectional view of a heat-driven beam deflection device according to an embodiment. In this
この集積化されたビーム偏向デバイスは、VCSEL構造22sを有するシード光源21sとVCSEL構造22を有する光放射構造20を、同一半導体基板上に形成したものである。
In this integrated beam deflection device, a
VCSEL構造22sは、光放射構造20のVCSEL構造22と同様の構成であり、半導体基板23上に形成された下部DBR24s、活性層25、上部DBR26sを備え、シード光源21sと光放射構造20は、結合面54を介して活性層25を共通とする光結合状態にある。さらにシード光源21sと光放射構造20は、お互いの発振波長が少し異なり、λ1<λ2となるように共振器長を変える構成となっているほうが好ましい。また、反射率を考慮し、上部DBR26sのDBR層数は、光放射構造20のものとは異なり高反射となるように設計される。
The
駆動部33からしきい値電流以上の電流を駆動電極55から注入することによってシード光源21sを垂直方向に波長λ1で発振させる。この発振モードの光強度分布56の一部が光放射構造20のシード光56sとして染み出す。
The
一方、駆動部33から光放射構造20に対しても、しきい値電流より大きな電流が注入され波長λ2にて発振状態とする。この時、シード光源21sの光強度分布56の一部が光放射構造20のシード光入力Liとなって光結合し、光放射構造の長手方向に波長λ1のスローライト光が増幅されながら伝搬する。そして光放射構造20の表面に形成された出射口28から出射光Loが放射される。
On the other hand, a current larger than the threshold current is also injected from the
熱駆動部53の制御について説明する。図7では、説明のため、シード光源21sを加熱するヒータ51と光放射構造20を加熱するヒータ52を基板23下に記載しているが、加熱効率の観点からビーム偏向デバイス2の上面に配置することが好ましく、さらには熱的なアイソレーションのため、結合面54付近に、例えば空隙57などの熱分離が可能な構造を形成する。それぞれのヒータ51、52の温度調整をすることにより屈折率が変化し、それに伴い発振波長λ1,λ2が変化するため、出射光Loの偏向角θsを掃引することができる。
The control of the
式(1)をみてわかるように、光放射構造20のカットオフ波長λcを変化させても出射光Loの偏向角を変えることが可能である。VCSEL構造22を有する光放射構造20では、カットオフ波長λcは、光放射構造20の単体発振波長λ2と等しいことから、式(1)を式(4)のように書き換える。
As can be seen from the equation (1), it is possible to change the deflection angle of the emitted light Lo by changing the cutoff wavelength λc of the
sinθr=n・sinθi=n√(1−(λ1/λ2)2) …(4)
すなわち、シード光源21sと光放射構造20の単体発振波長λ1とλ2の変化が反対になるようにヒータ51、52を制御することで効率的な偏向制御が行える。もちろんシード光源21sと光放射構造20のどちらか一方の温度を変えてもよい。
sinθr = n · sinθi = n√ (1- (λ1 / λ2) 2 )… (4)
That is, efficient deflection control can be performed by controlling the
図8は、マイクロマシン構造によるビーム偏向デバイスの断面図である。図7と異なる点は、シード光源21sと光放射構造20の上部DBR26s、26にそれぞれエアギャップ層58s、58を設け、このエアギャップ層58sの厚みがMEMS(Micro Electro Mechanical Systems)構造によって可変に構成されている点である。エアギャップ層58sの厚みを変化させることで、上部DBR26sで構成される高反射ミラーの位置を制御でき、これによりシード光源21sのキャビティ長が変化し、発振波長λ1を変化させることができる。さらに、このMEMS構造を制御するMEMS駆動部60を備える。これにより、光掃引構造21は、MEMS構造を有するシード光源21sとMEMS駆動部60を有する。なお、図8では、図7で記載の駆動部33を省略した。
FIG. 8 is a cross-sectional view of a beam deflection device with a micromachine structure. The difference from FIG. 7 is that the
MEMS駆動部60は、MEMS制御電極59に印加する電圧を変化させることでシード光源21sのエアギャップ層58の層厚を変化させ、発振波長λ1を掃引する制御を行う。
The
なお、光放射構造20側にもエアギャップ層58を変化させるMEMS構造を形成してもよい。その場合は、熱的制御と同様に、単体発振波長λ1とλ2を変化が反対となるような制御を行うと効率がよい。
A MEMS structure that changes the
以上のように構成されたビーム偏向デバイス2を用いて、光掃引制御部3は、ライン光を時間的に掃引し、ライン光を送出した時間とライン光の偏向角に基づいてライン光の掃引パターンを生成する。その結果、所定のライン間隔で、所定数のラインからなる種々のライン光の掃引パターンを生成することができる。
Using the
(シングルカメラ方式)
図9は、本実施形態の測距センサを車載用に応用した場合の概念図である。また、図10は、シングルカメラ方式の測距方法の説明図である。図9、および図10を用いて、車両90のフロントガラス中央上部に本実施形態の測距センサ1が搭載されている場合を例にとりシングルカメラ方式の測距方法について説明する。
(Single camera method)
FIG. 9 is a conceptual diagram when the distance measuring sensor of the present embodiment is applied to a vehicle. Further, FIG. 10 is an explanatory diagram of a single camera type distance measuring method. A single camera type distance measuring method will be described with reference to FIGS. 9 and 10 by taking as an example a case where the
図9においてビーム偏向デバイス2は、車両90の前方に位置する立方体形状の測定対象物Obに対して偏向角θsでライン光Lnを投光したとする。この時、焦点距離f、視野角θrを有するカメラ4は、イメージセンサ42上に測定対象物Obに投光されたライン光を撮像する。測定対象物Obの立方体前面までの距離をZs1、立方体後面までの距離をZs2とすると、イメージセンサ42上には、測定対象物Obの厚み(Zs2−Zs1)が異なる画素位置x1、x2に撮像される。すなわち、測定対象物までの距離差はイメージセンサ42上ではライン歪みとして観測される。
In FIG. 9, it is assumed that the
図10において、ビーム偏向デバイス2から測定対象物Obまでの距離をZs、ライン光Lnの偏向角をθs、ビーム偏向デバイス2とイメージセンサ42の中心までの距離をD、レンズ41の焦点距離をf、測定対象物Obのライン光を撮像するイメージセンサ42の中心からのX方向への距離をp・x(p:画素サイズ、x:画素数)とすると、三角測量の原理によりビーム偏向デバイス2から測定対象物Obまでの距離Zsが求まる。
Zs=D・f/(f・tanθs+p・x) …(5)
In FIG. 10, the distance from the
Zs = D ・ f / (f ・ tanθs + p ・ x)… (5)
図11は、ビーム偏向デバイスからライン光の偏向角を−30°から30°と掃引した時の測距距離とイメージセンサ上での画素位置を示す図である。ここで画素位置xは、イメージセンサ42の中心からの距離p・xを画素サイズpで割った画素数xを表している。計算に用いたパラメータは、D=100mm、f=10mm、ピクセルサイズ10μmである。この時、送信側での偏向角制御は1ライン光当たり0.05°の制御を行い、解像度は1200である。
FIG. 11 is a diagram showing the distance measurement distance and the pixel position on the image sensor when the deflection angle of the line light is swept from −30 ° to 30 ° from the beam deflection device. Here, the pixel position x represents the number of pixels x obtained by dividing the distance p · x from the center of the
ライン光を撮像したイメージセンサ42上での画素位置xは整数値であるから、これにより最大測距距離Zs_maxは式(6)、測距誤差ΔZsは、式(7)となる。
Since the pixel position x on the
Zs_max=D・f/p …(6)
ΔZs=Zs2・p/(D・f+Zs・p) …(7)
例えば、上記のパラメータを用いると、最大測距距離Zs_maxは100m、測距誤差ΔZsは50mとなる。このようにステレオカメラ方式は視差を利用するために、100m程度の測距距離Zsでは、大きな測距誤差ΔZsを持つことになる。
Zs_max = D ・ f / p… (6)
ΔZs = Zs 2 · p / (D · f + Zs · p)… (7)
For example, using the above parameters, the maximum distance measurement distance Zs_max is 100 m, and the distance measurement error ΔZs is 50 m. As described above, since the stereo camera system utilizes parallax, it has a large ranging error ΔZs at a ranging distance Zs of about 100 m.
これを解決するためには、画素サイズを小さくすることが有効であるが、本実施形態では、ピーク位置算出部502において、ライン光の一画素内でのラインピーク撮像位置を算出推定する。これにより、サブピクセル精度のラインピークを得ることができる。
In order to solve this, it is effective to reduce the pixel size, but in the present embodiment, the peak
図12は、一画素内のラインピークを算出するための説明図である。イメージセンサ42上で撮像されたライン光Lnの強度は、各画素内のフォトデテクタで受光した電荷量が所定のビット数でデジタル化された画素値として出力される。また、X方向の画素サイズによってライン光の分解能が決定されてしまう。まず、ライン光Lnを撮像した最大画素値Sxとなる画素xを求め、その前後の画素を考える。図12の例では、中心画素xに対して前後2画素を考慮した。
FIG. 12 is an explanatory diagram for calculating a line peak within one pixel. The intensity of the line light Ln imaged on the
一画素内のラインピークを算出する方法は、例えば以下のような方法が考えられる。
(1)テンプレートマッチング法。
ライン光LnのX方向の強度プロファイルをガウス分布と仮定し、これをテンプレートとする。そして各画素値(Qx−1〜Qx+1)とマッチングするような強度プロファイルを求める。図12の例では、画素サイズpと同程度の偏差σwを有する強度プロファイル120a(実線)がマッチングされラインピークXpが求まる。
As a method of calculating the line peak in one pixel, for example, the following method can be considered.
(1) Template matching method.
The intensity profile of the line light Ln in the X direction is assumed to be a Gaussian distribution, and this is used as a template. Then, an intensity profile that matches each pixel value (Qx-1 to Qx + 1) is obtained. In the example of FIG. 12, the
(2)等角直線補間法
中心画素xと両隣の画素x−1、x+1の3画素を用いる。まず中心画素xと画素x−1を結んだ直線の傾きと、中心画素xと画素x+1を結んだ直線の傾きのうち、傾きの大きい方の直線120bを採用する。次にこの直線120bの傾きを反転させ、かつ、反対側の画素x−1を通る直線120cを求める。そして両直線120b、120cの交わる位置によりラインピークXpを求める。あるいはこの3画素を2次曲線でフィッティングすることによりラインピークXpを求めてもよい。
(2) Equal-angle linear interpolation method Three pixels of the center pixel x and the pixels x-1 and x + 1 on both sides are used. First, of the slope of the straight line connecting the center pixel x and the pixel x-1 and the slope of the straight line connecting the center pixel x and the pixel x + 1, the
(3)重心法
中心画素xとその周辺画素に対して式(8)に示す重み付平均をとることにより、ラインピークXpを求める。
Xp=Σx・Qx/ΣQx …(8)
(3) Center of gravity method The line peak Xp is obtained by taking the weighted average shown in the equation (8) for the central pixel x and its peripheral pixels.
Xp = Σx ・ Qx / ΣQx… (8)
(4)ガウシアンフィルタ法
中心画素xおよびその周辺画素の画素値に対してガウス分布の重み付け(畳み込み処理)を行うことで自然な平滑化を行い、ラインピークXpを求める。
(4) Gaussian filter method Natural smoothing is performed by weighting the Gaussian distribution (convolution processing) on the pixel values of the central pixel x and its peripheral pixels, and the line peak Xp is obtained.
(5)ラプラシアンフィルタ法
中心画素xおよびその周辺画素の画素値に対してラプラシアンの重み付け(畳み込み処理)を行うことでライン光の両エッジを求め、その中心をラインピークXpとして求める。この方法では、両エッジの幅からライン光の幅σwも見積もることができる。ライン光の幅σwにより、畳み込み処理において選択すべき最小限の周辺画素数を見積もることが可能である。
(5) Laplacian filter method Both edges of the line light are obtained by weighting (convolution processing) the Laplacian with respect to the pixel values of the center pixel x and its peripheral pixels, and the center is obtained as the line peak Xp. In this method, the width σw of the line light can also be estimated from the widths of both edges. From the width σw of the line light, it is possible to estimate the minimum number of peripheral pixels to be selected in the convolution process.
これらの方法は、システムで求められる処理速度と位置精度の兼ね合いで適宜選択される。もちろん上記の方法以外の方法でもよい。一点鎖線で示す強度プロファイル120dように、ライン光Lnの強度プロファイルの幅が、画素サイズpより小さい場合には、中心画素xの隣接画素の画素値が0近くなり雑音に埋もれる場合が生じる。このような場合には、上述したラインピークの推定が精度良く行えないため、少なくとも3画素で正確な画素値が検出できるように、ライン光の強度プロファイルの幅σwと画素サイズpを設定する必要がある。
These methods are appropriately selected in consideration of the processing speed and position accuracy required by the system. Of course, a method other than the above method may be used. When the width of the intensity profile of the line light Ln is smaller than the pixel size p as in the
次に、画素範囲選択部501の動作について図13を用いて説明する。計算に用いたパラメータは図11と同じである。ライン光が時間プロファイルに同期して偏向角θsが−30°から30°まで掃引されると、測距曲線130がScanと書かれた矢印方向に移動していく。このことから、イメージセンサ42上の全ての画素を露光する、もしくは、全ての画素の画素値の読み出す必要がないことがわかる。例えば測距範囲を1m〜100mと仮定すると各測距曲線130で必要な水平方向の画素範囲ROI_hが決定する。図13の場合では、ROI_hは100画素程度である。偏向角θsに基づいてイメージセンサ42上の画素範囲が設定されるため、たとえ測定対象物が測距範囲に存在しなくても(ライン光の反射光がない場合でも)適切に画素範囲を設定することができる。
Next, the operation of the pixel
また、垂直方向の画素範囲ROI_vについて図14を用いて説明する。図6で説明したように、ライン長LTは回折角θdで決定される。イメージセンサ42上での画素範囲ROI_vは、回折角θdとレンズの焦点距離fで決定され、式(9)となる。
ROI_v=2f・tan(θd/2) …(9)
焦点距離fを可変できるズーム機構を有するカメラ4であれば、焦点距離fの変化によりROI_vを可変する。
Further, the pixel range ROI_v in the vertical direction will be described with reference to FIG. As described with reference to FIG. 6, the line length LT is determined by the diffraction angle θd. The pixel range ROI_v on the
ROI_v = 2f · tan (θd / 2)… (9)
If the
図15は、イメージセンサ42上の画素範囲の説明図である。図13で説明したROI_hと図14で説明したROI_vとで画素範囲150を設定し、この画素範囲を時間プロファイル(ライン光の掃引)と同期して移動させる。直線151は、測距最大値に対応する画素位置を示しており、測距できる範囲(例えば1mから100m)に対応する画素が画素範囲150内に含むように設定する。
FIG. 15 is an explanatory diagram of a pixel range on the
この画素範囲は、イメージセンサ42の画素の露光範囲、および画素値の読み出し範囲とすることができる。また、画素の露光範囲と、画素値の読み出し範囲とを異なるように設定してもよい。イメージセンサ42の画素の露光範囲を限定することは、シャッタースピードや感度設定の安定化をもたらすと同時に、外乱光、反射光、環境光の影響などを低減できる。また、画素値の読み出し範囲を限定することにより測距処理の高速化が可能となる。画素範囲の設定方法のバリエーションについては、後述する。夜間のように太陽光の影響が少ない実施形態では、画素の露光範囲を設定せず、画素値の読み出し範囲だけを設定してもよい。
This pixel range can be the exposure range of the pixels of the
画素範囲選択部501で選択された画素範囲で撮像されたライン光の画素値は、ピーク位置算出部502でライン光のラインピークが算出され、距離測定部503は、このラインピークを基に測定対象物までの距離を算出する。
For the pixel value of the line light captured in the pixel range selected by the pixel
図16は3次元距離動画生成のフローチャートである。まず、ステップST1では、フレームレート設定部504により取得したい3次元距離動画のフレームレートfrを設定する。例えば30fps(frames per second)などである。
FIG. 16 is a flowchart for generating a three-dimensional distance moving image. First, in step ST1, the frame rate fr of the three-dimensional distance moving image to be acquired is set by the frame
ステップST2では、時間プロファイル設定部31において、設定されたフレームレートfrの逆数(1/fr)に対応する時間プロファイルをメモリ6から読み出し、1フレーム生成のためのライン光の解像度数n、掃引するライン光の偏向角の範囲などが設定される。
In step ST2, the time
続けてステップST3では、ライン光を繰り返し掃引するための掃引周波数fs、掃引周波数fsの繰り返し周期内でライン光を発光する発光タイミングts(t1〜tn)、発光タイミングtsに対する偏向角θs(θ1〜θn)が設定される。そして、波長設定部32では、偏向角θsに対応する制御波長λ1、λ2が設定され、ライン光の投光が開始される。
Subsequently, in step ST3, the sweep frequency fs for repeatedly sweeping the line light, the emission timing ts (t1 to tun) for emitting the line light within the repeating cycle of the sweep frequency fs, and the deflection angle θs (θ1 to θ1 θn) is set. Then, in the
ステップST4では、画素範囲選択部501は偏向角θsに基づき、イメージセンサ42上の画素範囲を設定する。この画素範囲内において測距範囲内の測定対象物物を投光したライン光は撮像される。この画素範囲についてシャッターを開いて露光し、この画素範囲の画素値を読みだす。
In step ST4, the pixel
ステップST5では、ピーク位置算出部502において、読みだした画素値のうち、水平方向(行方向)の最大値を求め、その隣接する周辺画素値を用いて、一画素内のラインピークを求める。
In step ST5, the peak
ステップST6では、距離測定部503は、偏向角θsとラインピークを用いて測定対象物までの距離Zsを算出する。これにより1ライン光に対する測距が完了する。
In step ST6, the
さらにステップST7では、解像度nのライン光全てが掃引され、測距処理が完了しているかを判断する。解像度nのライン光全てが掃引されていれば(ST7:Yes)、1フレーム画像を生成し、解像度nのライン光全てが掃引されていなければ(ST7:No)、ステップST3に戻り、次のts、θsを設定してライン光の投光を行う。 Further, in step ST7, all the line lights having the resolution n are swept, and it is determined whether the distance measurement process is completed. If all the line lights of resolution n are swept (ST7: Yes), a one-frame image is generated, and if all the line lights of resolution n are not swept (ST7: No), the process returns to step ST3 and the next step is performed. Line light is projected by setting ts and θs.
以上のステップにより、1フレームの3次元距離画像が生成され、この1フレームの生成動作を繰り返すことで3次元距離動画が生成される。 By the above steps, a one-frame three-dimensional distance image is generated, and by repeating this one-frame generation operation, a three-dimensional distance moving image is generated.
(デュアルカメラ方式)
図17はデュアルカメラ方式の測距方法の説明図である。ビーム偏向デバイス2の左右にカメラ4R、4Lを用意した。各イメージセンサ42R、42Lの撮像距離をpr、plと表記した。なお、説明のため、ビーム偏向デバイス2と左右のカメラ4R、4Lとの距離D、また焦点距離fを等しくしているが、異なる距離D、焦点距離fを設定してもよい。
(Dual camera method)
FIG. 17 is an explanatory diagram of a distance measuring method of the dual camera system.
デュアルカメラ方式において、ビーム偏向デバイス2から測定対象物Obまでの距離Zsは、式(10)で求められる。
Zs=D・f/(pr−pl) …(10)
式(10)においては、偏向角θsを使用しないため、偏向角θsの制御精度が取れない場合にも精度のよい測距が行える。
In the dual camera system, the distance Zs from the
Zs = D · f / (pr-pl)… (10)
Since the deflection angle θs is not used in the equation (10), accurate distance measurement can be performed even when the control accuracy of the deflection angle θs cannot be obtained.
図18は、デュアルカメラ方式において選択されるイメージセンサの画素範囲(偏向角方向)を算出する説明図である。計算に用いたパラメータは図11、図13と同様である。イメージセンサ42R、42Lに対する測距曲線130R、130Lを同時に表示している。図18の例では、イメージセンサ42R、42Lに対して同じ画素範囲ROI_hを設定している。同じ画素範囲を設定することで制御を共通化できる。尚、ROI_vは、シングルカメラ方式と同様である。
FIG. 18 is an explanatory diagram for calculating the pixel range (deflection angle direction) of the image sensor selected in the dual camera system. The parameters used in the calculation are the same as those in FIGS. 11 and 13. The ranging curves 130R and 130L for the
図19は、イメージセンサ42R、42L上の画素範囲設定のバリエーションを示している。図19(a)は、図18に示したように、測距最大値の画素を示す直線151を中心に画素範囲を選択した場合である。図19(b)は、イメージセンサ42R、42Lに対して別々の画素範囲150R、150Lを設定した場合である。図19(c)は、比較的広い画素範囲150Wを指定しておき、画素範囲150Wをある時間固定してライン光を掃引する場合である。
FIG. 19 shows a variation of the pixel range setting on the
以上述べたように、第1の実施形態によれば、ライン光を掃引する方式を採用しているため、測定対象物を投光するレーザ光の強度を高めることが可能である。そのため、長距離の測定対象物への投光が可能となる。また、明るい環境下においてもS/N比を高めることができるため、安定した測距が行える。 As described above, according to the first embodiment, since the method of sweeping the line light is adopted, it is possible to increase the intensity of the laser light that projects the light to be measured. Therefore, it is possible to project light on a long-distance measurement object. Moreover, since the S / N ratio can be increased even in a bright environment, stable distance measurement can be performed.
ステレオカメラ方式は、視差を利用するため長距離での測距精度が良くないという欠点があるが、本実施形態ではライン光の掃引と同期して一画素内のラインピークを求めることができる。このため、長距離の測距においても十分な精度を得ることが可能である。さらには、イメージセンサの露光、読み出しの画素範囲をライン光の掃引と同期して設定することにより、測距処理の高速化が達成される。 The stereo camera method has a drawback that the distance measurement accuracy over a long distance is not good because it uses parallax, but in the present embodiment, the line peak within one pixel can be obtained in synchronization with the sweep of the line light. Therefore, it is possible to obtain sufficient accuracy even in long-distance distance measurement. Further, by setting the exposure and readout pixel ranges of the image sensor in synchronization with the sweeping of the line light, the speeding up of the distance measuring process is achieved.
VCSEL構造を有するビーム偏向デバイスは、小型で高解像度のビーム掃引が可能である。また、ビーム掃引においてレンズなどの光学部品を必要としないため、高速で小型な測距センサが実現できる。従来に比べて非常に小型化が可能であるため、本実施形態の測距センサを車載用に適用した場合、車両の前後(例えばナンバープレート付近)、側面(例えばドア、ドアミラー付近)にも容易に搭載することが可能であり、自動運転への信頼性を向上させることが可能である。 The beam deflection device having a VCSEL structure is small and capable of high resolution beam sweeping. Further, since the beam sweep does not require an optical component such as a lens, a high-speed and compact distance measuring sensor can be realized. Since it can be made much smaller than the conventional one, when the distance measuring sensor of this embodiment is applied to an in-vehicle vehicle, it can be easily applied to the front and rear of the vehicle (for example, near the license plate) and the side surface (for example, near the door and door mirror). It is possible to install it in the vehicle, and it is possible to improve the reliability of automatic operation.
(第2の実施形態)
図20は、第2の実施形態に係る測距センサのブロック図である。第1の実施形態に加え、距離画像生成部5に雑音測定部505、雑音除去部506、距離精度判定部507を有する。
(Second Embodiment)
FIG. 20 is a block diagram of the distance measuring sensor according to the second embodiment. In addition to the first embodiment, the distance
雑音測定部505は、イメージセンサ42上の雑音を測定する。特に太陽光や対向する車両のヘッドライトなどの外乱光に基づく雑音は測距精度に大きく影響する。もちろんカメラ4には、これらの波長の光をカットするフィルタを装着してもよい。
The
図21は、雑音とラインピークの位置精度の関係を示す説明図である。画素値が最大の画素xとその隣接する周辺画素の5画素についてガウス型の強度プロファイルをマッチングすることを考える。この時、各画素値が偏差σnを有するランダムな雑音が加わり、ライン光だけを受光した画素値から偏位するとしたならば、それに伴ってラインピークの位置も偏位することになる。この時の偏差をσxとする。 FIG. 21 is an explanatory diagram showing the relationship between noise and the position accuracy of the line peak. Consider matching a Gaussian intensity profile for 5 pixels of the pixel x having the largest pixel value and its adjacent peripheral pixels. At this time, if random noise is added in which each pixel value has a deviation σn and the pixel value receives only the line light and deviates from the pixel value, the position of the line peak also deviates accordingly. The deviation at this time is σx.
ラインピークの偏差σxが雑音によって生じるとすると、これによる測距の偏差σZsは、シングルカメラ方式の場合、式(5)を微分して式(11)となる。
σZs=Zs2・p・σx/(D・f) …(11)
この式(11)は、式(7)の議論と同じように、σxが1画素に近くなれば、100m程度の長距離において測距精度がとれなくなることを意味する。従って、本実施形態の雑音測定部505では、雑音を測定するために図22で示すような方法を採用する。
Assuming that the deviation σx of the line peak is caused by noise, the deviation σZs of the distance measurement due to this is obtained by differentiating the equation (5) into the equation (11) in the case of the single camera method.
σZs = Zs 2・ p ・ σx / (D ・ f)… (11)
This equation (11) means that if σx is close to one pixel, the distance measurement accuracy cannot be obtained over a long distance of about 100 m, as in the discussion of the equation (7). Therefore, the
図22は、雑音測定の説明図である。イメージセンサ42の雑音測定は、時間プロファイルに同期して行うために、図2のライン光の発光タイミングに重ねて表示する。イメージセンサ42は、ライン光の発光タイミングts(t1〜tn)に同期した時間RTs内に露光、画素値の読み取りを行う。これにより背景光雑音を含んだライン光に対する画素値を読み出すことができる。また、これに続いてライン光の非発光タイミングに同期した時間RTnにおいて、露光、画素値の読み取りを行う。これにより背景光雑音のみの画素値を読み出すことができる。
FIG. 22 is an explanatory diagram of noise measurement. Since the noise measurement of the
図23は、雑音除去部での処理の説明図である。雑音除去部506では、ライン光の発光タイミングtsに同期した時間RTsに読み出した画素値から、ライン光の非発光タイミングに同期した時間RTnに読み出した画素値の減算を行い、背景光雑音を除去した画素値を求める。この雑音除去処理は、偏向角θsで選択された画素範囲について行う。さらには、ラインピークを求めるのに必要な画素にのみこの雑音除去処理を施すことによりさらに測距処理の高速化ができる。
FIG. 23 is an explanatory diagram of processing in the noise removing unit. The
雑音が除去された画素値は、ピーク位置算出部502に送られラインピークが算出される。これにより、太陽光、外乱光、反射光などの背景光雑音が除去され、高精度なラインピークを算出することができる。
The pixel value from which noise has been removed is sent to the peak
しかし、背景光の強度が強い場合には、雑音を除去したとしてもライン光の信号成分が小さいと測距精度が上がらない場合がある。距離精度判定部507は、雑音除去部506からSNR(信号対雑音比)を取得する。距離精度はSNRに反比例することから、距離精度を判定し外部に出力する。SNRが所定の値以上でないときは、アラームを発出してもよい。
However, when the intensity of the background light is strong, the distance measurement accuracy may not be improved if the signal component of the line light is small even if the noise is removed. The distance accuracy determination unit 507 acquires an SNR (signal-to-noise ratio) from the
以上述べたように、第2の実施形態によれば第1の実施形態の効果に加え、太陽光、対向する車両のヘッドライトなどの外乱光、および反射光などに起因する背景光雑音が除去され、高精度な測距が行える。 As described above, according to the second embodiment, in addition to the effect of the first embodiment, background light noise caused by sunlight, ambient light such as headlights of an oncoming vehicle, and reflected light is removed. It is possible to measure the distance with high accuracy.
図24は実施形態の測距センサを車載用に応用した場合の種々の搭載例である。図24(a)は、第1の実施形態で示した搭載例であり、前方の障害物を認識するのに適している。図24(b)は、車両の前後(例えばナンバープレート付近)、左右(例えばドア、あるいはドアミラー付近)に測距センサ1を搭載した例である。このような搭載例では自動駐車支援などの用途に適している。本実施形態の3次元装置は回転する機構部品や大きな光学部品を搭載しないため、スマートフォンに搭載可能なサイズで実現できる。このため、車両のどこにでも自由に搭載することが可能である。
FIG. 24 shows various mounting examples when the distance measuring sensor of the embodiment is applied to a vehicle. FIG. 24A is a mounting example shown in the first embodiment, and is suitable for recognizing an obstacle in front of the vehicle. FIG. 24B is an example in which the
図24(c)は、ビーム偏向デバイス2とカメラ4を独立して搭載した例である。ビーム偏向デバイス2とカメラ4間の距離Dを大きくするほど、長距離での測距精度を向上することができる。また、光掃引制御部3と距離画像生成部5についても分離してコックピット内などに配置することができるため、カーナビゲーション機能と連携させたり、ドライブレコーダ等のカメラ映像と同期させてもよい。
FIG. 24C shows an example in which the
また、本実施形態は車載用を例として説明したがこれに限定されないことは言うまでもない。3次元形状測定、顔認識などいろいろな用途で使用できる。 Further, although the present embodiment has been described for in-vehicle use as an example, it goes without saying that the present embodiment is not limited to this. It can be used for various purposes such as 3D shape measurement and face recognition.
尚、本発明のいくつかの実施形態を述べたが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。本実施形態及びその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The present embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
1 測距センサ
2 ビーム偏向デバイス
3 光掃引制御部
4 カメラ
5 距離画像生成部
6 メモリ
7 同期部
8 処理部
20 光放射構造
21 光掃引構造
21s シード光源
22 VCSEL構造
31 時間プロファイル設定部
32 波長設定部
33 駆動部
501 画素範囲選択部
502 ピーク位置算出部
503 距離測定部
504 フレームレート設定部
505 雑音測定部
506 雑音除去部
507 距離精度判定部
1
Claims (10)
前記ライン光が照射された対象物を撮像するイメージセンサと、
前記ライン光の前記偏向角θsを変化させることにより、前記ライン光の照射位置を変化させ、前記イメージセンサの画像データにおける前記ライン光の画素位置にもとづいて、対象物までの距離または前記対象物の3次元形状を測定する処理部と、
を備えることを特徴とする測距センサ。 A beam deflection device including a light emission structure capable of emitting line light having a line shape in a far-field image from the device surface and having a variable deflection angle θs of the line light.
An image sensor that captures an object irradiated with the line light and
By changing the deflection angle θs of the line light, the irradiation position of the line light is changed, and the distance to the object or the object is based on the pixel position of the line light in the image data of the image sensor. A processing unit that measures the three-dimensional shape of
A distance measuring sensor characterized by being provided with.
前記対象物までの距離は、前記偏向角θsと前記画像データにおける前記ライン光の画素位置と、にもとづいて計算されることを特徴とする請求項1または2に記載の測距センサ。 The image sensor is one,
The distance measuring sensor according to claim 1 or 2, wherein the distance to the object is calculated based on the deflection angle θs and the pixel position of the line light in the image data.
前記対象物までの距離は、前記2個のイメージセンサが生成する2つの画像データそれぞれにおける前記ライン光の画素位置にもとづいて計算されることを特徴とする請求項1または2に記載の測距センサ。 There are two image sensors.
The distance measurement according to claim 1 or 2, wherein the distance to the object is calculated based on the pixel position of the line light in each of the two image data generated by the two image sensors. Sensor.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043556A JP2020148475A (en) | 2019-03-11 | 2019-03-11 | Ranging sensor |
PCT/JP2020/008804 WO2020184269A1 (en) | 2019-03-11 | 2020-03-03 | Ranging sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043556A JP2020148475A (en) | 2019-03-11 | 2019-03-11 | Ranging sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020148475A true JP2020148475A (en) | 2020-09-17 |
Family
ID=72427364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019043556A Pending JP2020148475A (en) | 2019-03-11 | 2019-03-11 | Ranging sensor |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020148475A (en) |
WO (1) | WO2020184269A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022104906A1 (en) * | 2020-11-17 | 2022-05-27 | 中国科学院上海微系统与信息技术研究所 | Micro-displacement mechanism with non-hermitian coupling angle detection and correction device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07174536A (en) * | 1993-12-20 | 1995-07-14 | Minolta Co Ltd | Three dimensional shape-measuring apparatus |
JPH0942940A (en) * | 1995-08-03 | 1997-02-14 | Canon Inc | Shape measuring method and device for three-dimensional object |
JPH11148806A (en) * | 1997-11-18 | 1999-06-02 | Fuji Xerox Co Ltd | Reader for three-dimensional body and its susrface image |
JP2003185412A (en) * | 2001-12-18 | 2003-07-03 | Toshiba Corp | Apparatus and method for acquisition of image |
US20150002658A1 (en) * | 2013-06-28 | 2015-01-01 | National Taiwan Ocean University | Liquid level measuring device |
WO2016030924A1 (en) * | 2014-08-27 | 2016-03-03 | 株式会社ニコンビジョン | Rangefinder |
-
2019
- 2019-03-11 JP JP2019043556A patent/JP2020148475A/en active Pending
-
2020
- 2020-03-03 WO PCT/JP2020/008804 patent/WO2020184269A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07174536A (en) * | 1993-12-20 | 1995-07-14 | Minolta Co Ltd | Three dimensional shape-measuring apparatus |
JPH0942940A (en) * | 1995-08-03 | 1997-02-14 | Canon Inc | Shape measuring method and device for three-dimensional object |
JPH11148806A (en) * | 1997-11-18 | 1999-06-02 | Fuji Xerox Co Ltd | Reader for three-dimensional body and its susrface image |
JP2003185412A (en) * | 2001-12-18 | 2003-07-03 | Toshiba Corp | Apparatus and method for acquisition of image |
US20150002658A1 (en) * | 2013-06-28 | 2015-01-01 | National Taiwan Ocean University | Liquid level measuring device |
WO2016030924A1 (en) * | 2014-08-27 | 2016-03-03 | 株式会社ニコンビジョン | Rangefinder |
Non-Patent Citations (1)
Title |
---|
"Beam Steering, Beam Shaping, and Intensity Modulation Based on VCSEL Photonics", IEEE JOURNAL OF SELECTED TOPICS IN QUANTUM ELECTRONICS, vol. 19, no. 4, JPN6022022545, August 2013 (2013-08-01), ISSN: 0004931271 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022104906A1 (en) * | 2020-11-17 | 2022-05-27 | 中国科学院上海微系统与信息技术研究所 | Micro-displacement mechanism with non-hermitian coupling angle detection and correction device |
Also Published As
Publication number | Publication date |
---|---|
WO2020184269A1 (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hsu et al. | A review and perspective on optical phased array for automotive LiDAR | |
US10754036B2 (en) | Scanning illuminated three-dimensional imaging systems | |
JP7203217B2 (en) | Time-of-flight sensor with structured light illumination | |
JP6387407B2 (en) | Perimeter detection system | |
KR102020037B1 (en) | Hybrid LiDAR scanner | |
JP4402400B2 (en) | Object recognition device | |
JP7011290B2 (en) | 3D measurement projector and 3D measurement device | |
EP2824418A1 (en) | Surround sensing system | |
KR102059258B1 (en) | LiDAR scanning device | |
US11789128B2 (en) | Fiber-based transmitter and receiver channels of light detection and ranging systems | |
US20230358870A1 (en) | Systems and methods for tuning filters for use in lidar systems | |
WO2020184269A1 (en) | Ranging sensor | |
Fujioka et al. | Solid state LiDAR with sensing distance of over 40m using a VCSEL beam scanner | |
CN106839991B (en) | Laser scanning device and laser scanning method applied to three-dimensional scene measurement | |
EP4327122A1 (en) | Transmitter channels of light detection and ranging systems | |
US11871130B2 (en) | Compact perception device | |
TW202407380A (en) | Lidar system and resolusion improvement method thereof | |
US11614521B2 (en) | LiDAR scanner with pivot prism and mirror | |
KR102580701B1 (en) | Dynamic compensation for polygonal and motor tolerances using galvo control profiles | |
US20230305160A1 (en) | Multimodal detection with integrated sensors | |
US20230305161A1 (en) | Real-time monitoring dc offset of adc data of lidar system | |
US11768294B2 (en) | Compact lidar systems for vehicle contour fitting | |
US20230341532A1 (en) | Dynamic calibration method of avalanche photodiodes on lidar | |
US20240168206A1 (en) | Systems and methods for polygon mirror angles adjustment | |
US20240103138A1 (en) | Stray light filter structures for lidar detector array |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221129 |