JP2020148475A - Ranging sensor - Google Patents

Ranging sensor Download PDF

Info

Publication number
JP2020148475A
JP2020148475A JP2019043556A JP2019043556A JP2020148475A JP 2020148475 A JP2020148475 A JP 2020148475A JP 2019043556 A JP2019043556 A JP 2019043556A JP 2019043556 A JP2019043556 A JP 2019043556A JP 2020148475 A JP2020148475 A JP 2020148475A
Authority
JP
Japan
Prior art keywords
light
distance
line light
line
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019043556A
Other languages
Japanese (ja)
Inventor
小山 二三夫
Fumio Koyama
二三夫 小山
暁冬 顧
Xiaodong Gu
暁冬 顧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2019043556A priority Critical patent/JP2020148475A/en
Priority to PCT/JP2020/008804 priority patent/WO2020184269A1/en
Publication of JP2020148475A publication Critical patent/JP2020148475A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

To provide a ranging sensor capable of measuring a long distance with high accuracy at a high speed.SOLUTION: A beam deflecting device 2 includes a light emitting structure 20 which emits linear light Li having a linear far-field pattern from a surface of the device and is configured so that a deflection angle θs of the linear light Li is variable. A camera 4 captures an image of an object irradiated with the linear light Li. A processing unit 8 varies the deflection angle θs of the linear light Li to vary an irradiation position of the linear light Li and measures a distance to the object or a three-dimensional shape of the object on the basis of a pixel position of the linear light Li in image data of the camera 4.SELECTED DRAWING: Figure 1

Description

本発明は、測距センサに関する。 The present invention relates to a distance measuring sensor.

近年、3次元計測の用途が広がりつつある。自動車、ドローン、ロボットなどに搭載されるレーザレーダ(LIDAR)、パソコンやスマートフォンに搭載され顔認証などを行う3Dセンサ、安全監視システム、製造現場での自動検査装置などは、3次元計測の代表である。 In recent years, the applications of three-dimensional measurement are expanding. Laser radar (LIDAR) mounted on automobiles, drones, robots, etc., 3D sensors mounted on personal computers and smartphones for face recognition, safety monitoring systems, automatic inspection devices at manufacturing sites, etc. are representative of 3D measurement. is there.

測距の方式は、大きく、三角測量方式とTOF(Time Of Flight)方式に分けられる。三角測量方式は、近距離を高精度に測定する用途で利用され、TOF方式は、遠距離を測定する用途で利用される。 The distance measurement method can be broadly divided into a triangulation method and a TOF (Time Of Flight) method. The triangulation method is used for measuring short distances with high accuracy, and the TOF method is used for measuring long distances.

特開2004−333369号公報Japanese Unexamined Patent Publication No. 2004-333369 米国特許第8,320,621B2号明細書U.S. Pat. No. 8,320,621B2 米国特許出願公開第2014/0211215A1号明細書U.S. Patent Application Publication No. 2014/0211215A1 米国特許出願公開第2016/0025993A1号明細書U.S. Patent Application Publication No. 2016/0025993A1

T. Matsuda, F. Abe, and H. Takahashi, "Laser printer scanning system with a parabolic mirror" Appl. Opt., vol. 17, no. 6, pp. 878-884, Mar. 1978.T. Matsuda, F. Abe, and H. Takahashi, "Laser printer scanning system with a parabolic mirror" Appl. Opt., Vol. 17, no. 6, pp. 878-884, Mar. 1978. P. F. V. Dessel, L. J. Hornbeck, R. E. Meier, and M. R. Douglass, "A MEMS-based projection display," Proc. IEEE,vol. 86, no. 8, pp. 1687-1704, Aug. 1988.P. F. V. Dessel, L. J. Hornbeck, R. E. Meier, and M. R. Douglass, "A MEMS-based projection display," Proc. IEEE, vol. 86, no. 8, pp. 1687-1704, Aug. 1988. K. Nakamura, J. Miyazu, M. Sasaura, and K. Fujiura, "Wide-angle, low-voltage electro-optic beam deflection based onspace-charge-controlled mode of electrical conduction in KTa1xNbxO3," Appl. Phys. Lett., vol. 89, no. 3, pp. 131115-1-131115-3, Sep. 2006.K. Nakamura, J. Miyazu, M. Sasaura, and K. Fujiura, "Wide-angle, low-voltage electro-optic beam deflection based onspace-charge-controlled mode of electrical conduction in KTa1xNbxO3," Appl. Phys. Lett. , vol. 89, no. 3, pp. 131115-1-131115-3, Sep. 2006. Y. Kurosaka, S. Iwahashi, Y. Liang, K. Sakai, E. Miyai, W. Kunishi, D. Ohnishi, and S. Noda, "On-chip beam-steering photonic-crystal lasers," Nat. Photon., vol. 4, no. 7, pp. 447-450, May 2010.Y. Kurosaka, S. Iwahashi, Y. Liang, K. Sakai, E. Miyai, W. Kunishi, D. Ohnishi, and S. Noda, "On-chip beam-steering photonic-crystal lasers," Nat. Photon. , vol. 4, no. 7, pp. 447-450, May 2010. J. K. Doylend, et.al., "Two-dimensional free-space beam steering with an optical phased array on silicon-on-insulator," Optics Express, vol. 19, no.22, pp.21595-21604, 2011.J. K. Doylend, et.al., "Two-dimensional free-space beam steering with an optical phased array on silicon-on-insulator," Optics Express, vol. 19, no.22, pp.21595-21604, 2011. X. Gu, T. Shimada, and F. Koyama, "Giant and high-resolution beam steering using slow-light waveguide amplifier,"Opt. Exp., vol. 19, no. 23, pp. 22 675-22 683, Nov. 2011.X. Gu, T. Shimada, and F. Koyama, "Giant and high-resolution beam steering using slow-light waveguide amplifier," Opt. Exp., vol. 19, no. 23, pp. 22 675-22 683, Nov. 2011. M. Nakahama, X. Gu, T. Shimada, and F. Koyama, "On-Chip high-resolution beam scanner based on Bragg reflector slow-light waveguide amplifier and tunable micro-electro-mechanical system vertical cavity surface emitting laser," Jpn. J. Appl. Phys., vol. 51, no. 4, pp. 040208-1-040208-3, Mar. 2012.M. Nakahama, X. Gu, T. Shimada, and F. Koyama, "On-Chip high-resolution beam scanner based on Bragg reflector slow-light waveguide amplifier and tunable micro-electro-mechanical system vertical cavity surface emitting laser," Jpn. J. Appl. Phys., Vol. 51, no. 4, pp. 040208-1-040208-3, Mar. 2012.

中長距離を対象とする車載用途において、単眼カメラあるいはステレオカメラによる三角測量方式が採用される例があるが、いずれの方式も、膨大な画像処理を伴うものであり、高いフレームレートのためには高速なプロセッサが必要であり、コストが高くなるという問題がある。 There are cases where a triangulation method using a monocular camera or a stereo camera is adopted for in-vehicle applications targeting medium and long distances, but both methods involve enormous image processing and are due to the high frame rate. Requires a high-speed processor, which has the problem of high cost.

三角測量方式としては、光切断法も知られている(特許文献1)。光切断法は、ライン状の光を物体にスキャン照射して三角測量を行うものであり、単眼あるいはステレオカメラによる方式に比べて、演算量を減らすことができる。しかしながら従来の光切断方法の用途は、近距離に限定されており、また高いフレームレートでの測距が困難であった。またライン光をスキャンするために、可動ステージあるいはガルバノミラーを用いる必要があり、装置が複雑化するという問題があった。 As a triangulation method, an optical cutting method is also known (Patent Document 1). The light cutting method scans and irradiates an object with line-shaped light to perform triangulation, and can reduce the amount of calculation as compared with the method using a monocular or stereo camera. However, the use of the conventional optical cutting method is limited to a short distance, and it is difficult to measure the distance at a high frame rate. Further, in order to scan the line light, it is necessary to use a movable stage or a galvanometer mirror, which causes a problem that the apparatus becomes complicated.

本発明はかかる状況においてなされたものであり、そのある態様の例示的な目的のひとつは、中長距離を対象とする三角測量法式の測距センサを提供することにある。 The present invention has been made in such a situation, and one of the exemplary objects of the embodiment is to provide a triangulation distance measuring sensor for medium and long distances.

本発明のある態様は、測距センサに関する。測距センサは、遠視野像がライン形状となるライン光をデバイス表面から出射可能であり、ライン光の偏向角θsが可変に構成される光放射構造を含むビーム偏向デバイスと、ライン光が照射された対象物を撮像するイメージセンサと、ライン光の偏向角θsを変化させることにより、ライン光を掃引するとともに、イメージセンサの画像データにもとづいて、対象物までの距離または対象物の3次元形状を測定する処理部と、を備える。 One aspect of the present invention relates to a ranging sensor. The ranging sensor can emit line light having a line shape in a far-field image from the device surface, and is irradiated with a beam deflection device including a light emission structure in which the deflection angle θs of the line light is variably configured. By changing the deflection angle θs of the line light and the image sensor that captures the image of the object, the line light is swept, and the distance to the object or the three dimensions of the object is based on the image data of the image sensor. It is provided with a processing unit for measuring the shape.

本発明のある態様によれば、長距離の測距を高速化し、あるいは高精度化できる。 According to an aspect of the present invention, long-distance distance measurement can be increased in speed or accuracy.

本実施形態に係る測距センサの概略的なブロック図である。It is a schematic block diagram of the ranging sensor which concerns on this embodiment. 図1に示す測距センサの概略的動作を説明する図である。It is a figure explaining the schematic operation of the distance measurement sensor shown in FIG. 第1の実施形態に係る測距センサのブロック図である。It is a block diagram of the distance measuring sensor which concerns on 1st Embodiment. 実施形態に係るVCSEL構造を有する光放射構造の断面図である。It is sectional drawing of the light radiation structure which has the VCSEL structure which concerns on embodiment. 図4に示す光放射構造から放射されるライン光パターンの概念図である。It is a conceptual diagram of the line light pattern emitted from the light emission structure shown in FIG. ライン光のライン長を説明する図である。It is a figure explaining the line length of a line light. 熱駆動方式のビーム偏向デバイスの断面図である。It is sectional drawing of the beam deflection device of a thermal drive system. マイクロマシン駆動方式のビーム偏向デバイスの断面図である。It is sectional drawing of the beam deflection device of the micromachine drive system. 実施形態の測距センサを車載用に応用した場合の概念図である。It is a conceptual diagram when the distance measuring sensor of an embodiment is applied to a vehicle. シングルカメラ方式の測距方法の説明図である。It is explanatory drawing of the distance measuring method of a single camera system. シングルカメラ方式においてビーム偏向デバイスからライン光を掃引した時の測距距離とイメージセンサでの画素位置を示す図である。It is a figure which shows the distance measurement distance and the pixel position in an image sensor when the line light is swept from a beam deflection device in a single camera system. 一画素内のラインピークを算出するための説明図である。It is explanatory drawing for calculating the line peak in one pixel. イメージセンサの画素範囲(偏向角方向)の説明図である。It is explanatory drawing of the pixel range (deflection angle direction) of an image sensor. イメージセンサの画素範囲(回折角方向)の説明図である。It is explanatory drawing of the pixel range (diffraction angle direction) of an image sensor. シングルカメラ方式におけるイメージセンサ上での画素範囲の説明図である。It is explanatory drawing of the pixel range on an image sensor in a single camera system. 3次元距離動画生成のフローチャートである。It is a flowchart of 3D distance moving image generation. デュアルカメラ方式の測距方法の説明図である。It is explanatory drawing of the distance measurement method of a dual camera system. デュアルカメラ方式において時間プロファイルに同期するイメージセンサの画素範囲(偏向角方向)を算出する説明図である。It is explanatory drawing which calculates the pixel range (deflection angle direction) of the image sensor which synchronizes with a time profile in a dual camera system. デュアルカメラ方式におけるイメージセンサ上での画素範囲の説明図である。It is explanatory drawing of the pixel range on an image sensor in a dual camera system. 第2の実施形態に係る測距センサのブロック図である。It is a block diagram of the distance measuring sensor which concerns on 2nd Embodiment. 雑音とラインピーク位置精度の関係を示す説明図である。It is explanatory drawing which shows the relationship between noise and line peak position accuracy. 雑音測定の説明図である。It is explanatory drawing of the noise measurement. 雑音減算部での処理の説明図である。It is explanatory drawing of the process in a noise subtraction part. 実施形態の測距センサを車載用に応用した場合の種々の搭載例を説明する図である。It is a figure explaining various mounting examples when the distance measuring sensor of an embodiment is applied to a vehicle.

以下、実施形態についていくつかの図面を参照しながら詳細に説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。 Hereinafter, embodiments will be described in detail with reference to some drawings. In the following description, components having substantially the same function and configuration are designated by the same reference numerals, and duplicate explanations will be given only when necessary.

図1は、本実施形態に係る測距センサ1の概略的なブロック図である。測距センサ1は、主としてビーム偏向デバイス2、カメラ4、および処理部8を備える。 FIG. 1 is a schematic block diagram of the distance measuring sensor 1 according to the present embodiment. The distance measuring sensor 1 mainly includes a beam deflection device 2, a camera 4, and a processing unit 8.

ビーム偏向デバイス2は、測定対象物Obに後述する時間プロファイルに基づいたライン光の掃引パターン200を照射する。図1では測定対象物Obとして仮想的な平面、もしくは参照平面RSを示している。 The beam deflection device 2 irradiates the measurement object Ob with a line light sweep pattern 200 based on a time profile described later. In FIG. 1, a virtual plane or a reference plane RS is shown as the object to be measured Ob.

ビーム偏向デバイス2は、遠視野像がライン形状であるライン光Li(i=1,2,・・・N)をデバイス表面から出射する光放射構造20を含み、ライン光Liが放射される偏向角θsが可変に構成される。ここでは、デバイス表面に対して垂直方向をθs=0とする。 The beam deflection device 2 includes a light emission structure 20 that emits line light Li (i = 1, 2, ... N) whose far-field image has a line shape from the device surface, and deflects the line light Li to be emitted. The angle θs is variably configured. Here, θs = 0 in the direction perpendicular to the device surface.

処理部8は、ライン光Liの偏向角θsを変化させることにより、ライン光Liの照射位置を掃引する。この機能は、処理部8の光掃引制御部3によって実行される。図1には、ライン光を掃引した結果得られる掃引パターン200の一例が示される。この掃引パターン200は、第1方向(図中、X方向)に離間する複数のライン光L1〜Lnを含み、各ライン光Li(添字iで代表する)は、第2方向(Y方向)が長手である。これをライン長と定義する。なお測定対象に対して、複数のライン光L1〜Lnが同時に照射されることはなく、ある時刻では、一つのライン光Liのみが測定対象に照射される。 The processing unit 8 sweeps the irradiation position of the line light Li by changing the deflection angle θs of the line light Li. This function is executed by the light sweep control unit 3 of the processing unit 8. FIG. 1 shows an example of a sweep pattern 200 obtained as a result of sweeping the line light. The sweep pattern 200 includes a plurality of line lights L1 to Ln separated in the first direction (X direction in the drawing), and each line light Li (represented by the subscript i) has a second direction (Y direction). It is long. This is defined as the line length. It should be noted that a plurality of line lights L1 to Ln are not simultaneously irradiated to the measurement target, and only one line light Li is irradiated to the measurement target at a certain time.

光掃引制御部3は、所定の参照面RS上に所望のライン光の掃引パターン200を発生させるための時間プロファイルに基づいて、光放射構造20から出射するライン光L1〜Lnの偏向角θsを制御する。 The light sweep control unit 3 determines the deflection angles θs of the line lights L1 to Ln emitted from the light emission structure 20 based on the time profile for generating the desired line light sweep pattern 200 on the predetermined reference surface RS. Control.

カメラ4は、測定対象物Obに投光されたライン光L1〜Lnを順次イメージセンサに撮像する。 The camera 4 sequentially captures the line lights L1 to Ln projected on the measurement object Ob on the image sensor.

処理部8は、イメージセンサ4により得られた画像データにもとづいて、対象物までの距離または対象物の3次元形状を測定する。この機能は処理部8の距離画像生成部5によって実行される。 The processing unit 8 measures the distance to the object or the three-dimensional shape of the object based on the image data obtained by the image sensor 4. This function is executed by the distance image generation unit 5 of the processing unit 8.

距離画像生成部5は、カメラ4で撮像された画像データに含まれるライン光LiのX方向の画素位置の情報を、ビーム偏向デバイス2からライン光Liの照射スポットまでの距離情報に変換する。光掃引制御部3と距離画像生成部5とは、動画対応のフレームレートの周波数に同期して動作し、距離画像生成部5は動画対応の3次元距離動画を出力することができる。処理部8は、CPU(Central Processing Unit)やFPGA(Field Programmable Gate Array)などのひとつのハードウェアであってもよい。あるいは、光掃引制御部3と距離画像生成部5は、別々のハードウェアとして実装してもよい。 The distance image generation unit 5 converts the information on the pixel position of the line light Li in the X direction included in the image data captured by the camera 4 into the distance information from the beam deflection device 2 to the irradiation spot of the line light Li. The light sweep control unit 3 and the distance image generation unit 5 operate in synchronization with the frequency of the frame rate corresponding to the moving image, and the distance image generating unit 5 can output a three-dimensional distance moving image corresponding to the moving image. The processing unit 8 may be one piece of hardware such as a CPU (Central Processing Unit) or an FPGA (Field Programmable Gate Array). Alternatively, the light sweep control unit 3 and the distance image generation unit 5 may be implemented as separate hardware.

図2は、図1に示す測距センサの概略的動作を説明する図である。本実施形態の測距センサは、時間プロファイルに基づいて所望のライン光の掃引パターン200が形成される。 FIG. 2 is a diagram illustrating a schematic operation of the distance measuring sensor shown in FIG. In the ranging sensor of this embodiment, a desired line light sweep pattern 200 is formed based on the time profile.

光掃引制御部3は、まず測距すべき偏向角θsの範囲θminとθmaxを設定する。この偏向角の範囲内に対して掃引するライン光数nを設定する。このライン光数nは、最終的に得られる3次元距離画像の解像度となる。図2では、光掃引制御部3が時間とともにビーム偏向デバイス2から放射するライン光の偏向角θs(θ1〜θn)を時間tとともに連続的にスイープする例を示している。 The light sweep control unit 3 first sets the ranges θmin and θmax of the deflection angles θs to be measured. The number of line lights n to be swept is set within the range of this deflection angle. The number of line lights n is the resolution of the finally obtained three-dimensional distance image. FIG. 2 shows an example in which the light sweep control unit 3 continuously sweeps the deflection angles θs (θ1 to θn) of the line light emitted from the beam deflection device 2 with time t.

例えば時間t1において偏向角θsがθ1となった場合には、ライン光L1の強度Ipをパルス状に時間変化させる。これをn回繰り返すことで、図1のライン光の掃引パターン200が得られる。ここで、時間t1〜tnをライン光の発光タイミングtsと定義する。また、図2では、偏向角θsを一定の傾きで連続的にスイープさせる例を示したが、各ライン光Lnの発光期間中は偏向角θsのスイープを一旦停止してもよい。偏向角θsのスイープを停止することで偏向角θsの精度を上げることができる。 For example, when the deflection angle θs becomes θ1 at time t1, the intensity Ip of the line light L1 is changed with time in a pulsed manner. By repeating this n times, the sweep pattern 200 of the line light of FIG. 1 can be obtained. Here, the times t1 to tn are defined as the emission timing ts of the line light. Further, although FIG. 2 shows an example in which the deflection angle θs is continuously swept at a constant inclination, the sweep of the deflection angle θs may be temporarily stopped during the light emission period of each line light Ln. The accuracy of the deflection angle θs can be improved by stopping the sweep of the deflection angle θs.

以上が測距センサ1の動作である。続いてその利点を説明する。測距センサ1によれば、単眼カメラあるいはステレオカメラを用いた三角測量方式に比べて格段に少ない演算量で、中長距離における3次元計測が可能となる。またライン光のスキャンに、可動ステージやガルバノミラーが不要であるため、装置を簡素化し、コストを下げることができる。 The above is the operation of the distance measuring sensor 1. Next, the advantages will be described. According to the distance measuring sensor 1, three-dimensional measurement at medium and long distances is possible with a significantly smaller amount of calculation than a triangulation method using a monocular camera or a stereo camera. In addition, since a movable stage or a galvanometer mirror is not required for scanning line light, the device can be simplified and the cost can be reduced.

本発明は、図1のブロック図として把握され、あるいは上述の説明から導かれるさまざまな装置、回路に及ぶものであり、特定の構成に限定されるものではない。以下、本発明の範囲を狭めるためではなく、発明の本質や動作の理解を助け、またそれらを明確化するために、より具体的な実施例や変形例を説明する。 The present invention extends to various devices and circuits grasped as the block diagram of FIG. 1 or derived from the above description, and is not limited to a specific configuration. Hereinafter, more specific examples and modifications will be described not for narrowing the scope of the present invention but for helping to understand the essence and operation of the invention and clarifying them.

(第1の実施形態)
図3は、第1の実施形態に係る測距センサのブロック図である。測距センサ1は、図1と同様にビーム偏向デバイス2、ビーム偏向デバイス2から出射するビームを制御する光掃引制御部3、ビーム偏向デバイス2から出射し、測定対象物を投光したビームを2次元画素上で撮像検知するカメラ4、カメラ4の撮像信号から測定対象物の3次元距離を判定し、3次元距離画像を生成する距離画像生成部5、および時間プロファイルを始めとする種々の制御データを格納するメモリ6を有している。さらには、時間プロファイルに関連する各種パラメータを同期させて制御する同期部7を備える。
(First Embodiment)
FIG. 3 is a block diagram of the distance measuring sensor according to the first embodiment. Similar to FIG. 1, the ranging sensor 1 emits a beam emitted from a beam deflection device 2, a light sweep control unit 3 for controlling a beam emitted from the beam deflection device 2, and a beam deflection device 2, and projects a beam projected on an object to be measured. Various types of cameras including a camera 4 that detects imaging on a two-dimensional pixel, a distance image generation unit 5 that determines a three-dimensional distance of a measurement object from an imaging signal of the camera 4 and generates a three-dimensional distance image, and a time profile. It has a memory 6 for storing control data. Further, it includes a synchronization unit 7 that synchronizes and controls various parameters related to the time profile.

ビーム偏向デバイス2は、遠視野像がライン形状のライン光をデバイス表面から直接出射する光放射構造20と、ライン光を偏向角が異なる方向(図中ではθ1〜θn)に掃引する光掃引構造21を有する。また、光掃引制御部3はデバイスの表面から直接出射するライン光を時間的に所定の偏向角で順次掃引し、距離Zsだけ離れた参照面RS上に所定のライン間隔で、所定数のラインからなるライン光の掃引パターン200を生成する。 The beam deflection device 2 has a light emission structure 20 in which a far-field image emits line-shaped line light directly from the device surface, and a light sweep structure that sweeps line light in directions having different deflection angles (θ1 to θn in the figure). Has 21. Further, the light sweep control unit 3 sequentially sweeps the line light emitted directly from the surface of the device at a predetermined deflection angle in time, and a predetermined number of lines are provided at a predetermined line interval on the reference surface RS separated by a distance Zs. A line light sweep pattern 200 comprising the above is generated.

この光掃引制御部3は、参照面RS上に投光するライン光の掃引パターン200を設定する時間プロファイル設定部31、ライン光の掃引パターン200に応じた制御波長を設定する波長設定部32、およびビーム偏向デバイス2を駆動する駆動部33を有する。 The light sweep control unit 3 includes a time profile setting unit 31 for setting a sweep pattern 200 of line light projected on the reference surface RS, and a wavelength setting unit 32 for setting a control wavelength according to the line light sweep pattern 200. It also has a drive unit 33 that drives the beam deflection device 2.

カメラ4は、焦点距離fを有するレンズ41と測定対象物に投光されたライン光の掃引パターンを撮像するイメージセンサ42を有する。このイメージセンサ42は、好ましくはグローバルシャッター方式のイメージセンサであるが、動作速度が高速のものであれば、ローリングシャッタ方式のイメージセンサでも構わない。 The camera 4 has a lens 41 having a focal length f and an image sensor 42 that captures a sweep pattern of line light projected onto a measurement object. The image sensor 42 is preferably a global shutter type image sensor, but a rolling shutter type image sensor may be used as long as the operating speed is high.

距離画像生成部5は、イメージセンサ42の画素範囲を時間プロファイルに同期して選択する画素範囲選択部501、イメージセンサ42で撮像されるライン光の画素位置と画素値に基づいてライン光のラインピークをサブピクセルの精度で算出するピーク位置算出部502、ライン光の偏向角θsに対するラインピークを用いて測定対象物までの距離を測定する距離測定部503、および画像生成のフレームレートを設定するフレームレート設定部504を有している。 The distance image generation unit 5 selects the pixel range of the image sensor 42 in synchronization with the time profile. The line light line based on the pixel position and pixel value of the line light imaged by the pixel range selection unit 501 and the image sensor 42. Set the peak position calculation unit 502 that calculates the peak with the accuracy of the sub-pixel, the distance measurement unit 503 that measures the distance to the measurement target using the line peak with respect to the deflection angle θs of the line light, and the frame rate of image generation. It has a frame rate setting unit 504.

距離画像生成部5は、カメラ4で撮像されたライン光のライン歪みと、ライン光の発光タイミングtsと偏向角θsに基づいて、測定対象物までの距離(3次元位置)を三角測量の手法を用いて測定する。ライン光の掃引パターン200を形成するライン光L1〜Ln全てに対して、測定対象物の3次元距離を求めることで3次元距離画像を生成する。 The distance image generation unit 5 triangulates the distance (three-dimensional position) to the measurement object based on the line distortion of the line light captured by the camera 4, the emission timing ts of the line light, and the deflection angle θs. Is measured using. A three-dimensional distance image is generated by obtaining the three-dimensional distance of the object to be measured for all the line lights L1 to Ln forming the line light sweep pattern 200.

メモリ6は、ビーム偏向デバイス2から出射するビームを制御するための時間プロファイル、同期のための制御データ、3次元距離測定のためのキャリブレーションデータ、および測定された測定対象物の3次元距離画像データなど各種のデータを保存する。 The memory 6 has a time profile for controlling the beam emitted from the beam deflection device 2, control data for synchronization, calibration data for three-dimensional distance measurement, and a three-dimensional distance image of the measured object to be measured. Save various data such as data.

同期部7は、3次元距離画像データが取得できるようにメモリ6の各種データを用いて光掃引制御部3と距離画像生成部5とを同期させる。例えば、所定の偏向角範囲内を所定の解像度のライン光で掃引する時間プロファイルにより、画像1フレームを形成し、この時間プロファイルを所定の動画映像のフレームレートと同期して繰り返すことにより、移動する測定対象物の3次元距離画像を生成する。図中のパラメータfrはフレームレート、fsはライン光の掃引周波数、tsはライン光の発光タイミング、θsはライン光の偏向角である。これらのパラメータは例示のためのパラメータであって、同期部7で使用するパラメータはこれだけに限定されない。 The synchronization unit 7 synchronizes the light sweep control unit 3 and the distance image generation unit 5 with various data of the memory 6 so that the three-dimensional distance image data can be acquired. For example, one frame of an image is formed by a time profile that sweeps within a predetermined deflection angle range with a line light having a predetermined resolution, and this time profile is repeated in synchronization with the frame rate of a predetermined moving image to move. A three-dimensional distance image of the object to be measured is generated. In the figure, the parameter fr is the frame rate, fs is the sweep frequency of the line light, ts is the emission timing of the line light, and θs is the deflection angle of the line light. These parameters are parameters for illustration purposes, and the parameters used in the synchronization unit 7 are not limited to these.

距離画像生成部5は、取得した3次元距離画像を静止画像または動画などの所定の形式で出力する。そしてこの3次元距離画像データの特徴点などを解析する図示しないAI(Artificial Intelligence)処理部やモニタ等に出力する。また、可視画像に3次元距離画像をスーパーインポーズして表示してもよい。 The distance image generation unit 5 outputs the acquired three-dimensional distance image in a predetermined format such as a still image or a moving image. Then, it is output to an AI (Artificial Intelligence) processing unit or a monitor (not shown) that analyzes the feature points of the three-dimensional distance image data. Further, a three-dimensional distance image may be superimposed on the visible image and displayed.

図4は、一実施例に係る光放射構造20の断面図である。この光放射構造20は、半導体基板23上に集積化されたVCSEL(Vertical Cavity Surface Emitting Laser)構造22を有する半導体デバイスであって、VCSEL構造22は、半導体基板23上に形成された下部DBR(Distributed Bragg Reflector)24、活性層25、上部DBR26を備え、上部DBR26と下部DBR24で多重反射されたスローライト光を伝搬させる。このVCSEL構造22は、垂直方向(Z方向)の共振長で定まる固有の発振波長λ2を有している。 FIG. 4 is a cross-sectional view of the light radiation structure 20 according to the embodiment. The light radiation structure 20 is a semiconductor device having a VCSEL (Vertical Cavity Surface Emitting Laser) structure 22 integrated on the semiconductor substrate 23, and the VCSEL structure 22 is a lower DBR (lower DBR) formed on the semiconductor substrate 23. A Distributed Bragg Reflector) 24, an active layer 25, and an upper DBR26 are provided, and slow light light multiple reflected by the upper DBR26 and the lower DBR24 is propagated. The VCSEL structure 22 has a unique oscillation wavelength λ2 determined by the resonance length in the vertical direction (Z direction).

光放射構造20は、活性層25にてスローライト光を増幅させながら伝搬させるため、導波路長は、2mm〜10mm程度に長尺化される。駆動部33は、光放射構造20に発振しきい値電流より大きな電流を注入し、VCSEL構造22の共振器長で決定する波長λ2で発振させる。この状態で、光放射構造20の一端側に設けられた入射口27からコヒーレントな入射光Liが入力されると、入射光Liは略垂直方向に多重反射するスローライト光として増幅されながら伝搬し、光放射構造20の表面上部に形成された出射口28から、放射角θsの出射光Loが放射され、出射光Loの遠視野像は、ライン形状となる。 Since the light radiation structure 20 propagates the slow light light while amplifying it in the active layer 25, the waveguide length is lengthened to about 2 mm to 10 mm. The drive unit 33 injects a current larger than the oscillation threshold current into the optical radiation structure 20 and oscillates at a wavelength λ2 determined by the resonator length of the VCSEL structure 22. In this state, when coherent incident light Li is input from the incident port 27 provided on one end side of the light radiation structure 20, the incident light Li propagates while being amplified as slow light light that is multiple reflected in a substantially vertical direction. The emission light Lo having a radiation angle θs is emitted from the emission port 28 formed on the upper surface of the light emission structure 20, and the far-field image of the emission light Lo has a line shape.

ここで光掃引構造21は、コヒーレントな入射光Liを発生するシード光源21sを用いることができて、波長可変レーザ(TLD:Tunable Laser Diode)構造を有する。シード光源21sは、端面出射型のTLDでも構わないが、シード光源21sが光放射構造20と一体に集積される構造の方が小型化には効果的である。 Here, the light sweep structure 21 can use a seed light source 21s that generates coherent incident light Li, and has a tunable laser diode (TLD) structure. The seed light source 21s may be an end-face emission type TLD, but a structure in which the seed light source 21s is integrated with the light radiation structure 20 is more effective for miniaturization.

光放射構造20は、シード光Liの波長λ1に応じた放射角θsで、出射光Loを放射する。光放射構造20内におけるスローライト光の多重反射角をθi、出射光Loの出射角をθsとするとき、式(1)が成り立つ。 The light radiation structure 20 emits emitted light Lo at a radiation angle θs corresponding to the wavelength λ1 of the seed light Li. Equation (1) holds when the multiple reflection angle of the slow light light in the light radiation structure 20 is θi and the emission angle of the emitted light Lo is θs.

sinθs=nsinθi=n√(1−(λ1/λc)) …(1)
nは光放射構造20の導波路の屈折率であり、λcは導波路のカットオフ波長であり、λ2と等しい。
sinθs = nsinθi = n√ (1- (λ1 / λc) 2 )… (1)
n is the refractive index of the waveguide of the light radiation structure 20, and λc is the cutoff wavelength of the waveguide, which is equal to λ2.

この光放射構造20は、しきい値電流より大きな電流が注入されているため、入射光Liが入射しないときは単体発振波長λ2での発振状態が維持されるが、波長λ1の入射光Liが入力されると、入射光Liは、多重反射するスローライト光として増幅されながら伝搬するため、単体発振波長λ2の成分は非常に小さくなる。 Since the light emission structure 20 is injected with a current larger than the threshold current, the oscillating state at the single oscillation wavelength λ2 is maintained when the incident light Li is not incident, but the incident light Li at the wavelength λ1 is present. When input, the incident light Li propagates while being amplified as slow light light that is multiple reflected, so that the component of the single oscillation wavelength λ2 becomes very small.

この時、出射光Loは、波面の揃ったコヒーレントな光となるため、放射角θs方向に極めて狭いビーム広がり角Δθdivを有する。このビーム広がり角Δθdivは、光放射構造20の出射口28の長手方向の開口幅WLを用いて、式(2)で与えられる。 At this time, the emitted light Lo has a beam spreading angle Δθdiv that is extremely narrow in the radiation angle θs direction because it becomes coherent light with a uniform wave surface. The beam spread angle Δθdiv is given by the equation (2) using the aperture width WL in the longitudinal direction of the exit port 28 of the light radiation structure 20.

Δθdiv≒λ1/(WL・cosθs) … (2)
すなわち、出射口28の開口幅WLが長いほどビーム広がり角Δθdivは狭くなり、同時に高出力化が達成される。
Δθdiv≈λ1 / (WL · cosθs)… (2)
That is, the longer the opening width WL of the exit port 28, the narrower the beam spread angle Δθdiv, and at the same time, higher output is achieved.

図5は、図4の光放射構造20から放射されるライン光の掃引パターンの概念図である。図5を用いて本実施形態で生成するライン光の掃引パターンについて説明する。光放射構造20の左側から波長λ1のシード光を入力すると、光放射構造20内を多重反射するスローライト光が伝搬し、式(1)に従って偏向角θs方向に、ビーム広がり角が非常に狭い光ビームが出射口28から出射される。今、光放射構造20からの距離がZsであり、光放射構造20が配置される平面と平行な参照面RSを考え、この参照面RS上に例えば、等間隔なn本(nは自然数)のライン光からなるライン光の掃引パターンパターンを形成することを考える。出射口28から出射された光ビームは、参照面RS上にてライン形状となり、シード光の波長λ1を時間的に掃引(t1〜tn)することで、偏向角θsが変化し、参照面RS上にマルチラインのライン光の掃引パターンパターン(L1〜Ln)が形成される。光放射構造20から放射されるライン光の幅は、式(2)に示すように、光放射構造20の長さを長くすることで狭くすることができ、かつ光出力も大きくできるため、ライン光強度を高めることができる。これにより明るい環境下におけるS/N比を高めることができる。 FIG. 5 is a conceptual diagram of a sweep pattern of line light emitted from the light emission structure 20 of FIG. The sweep pattern of the line light generated in the present embodiment will be described with reference to FIG. When seed light of wavelength λ1 is input from the left side of the light emission structure 20, slow light light that is multiple-reflected in the light emission structure 20 propagates, and the beam spread angle is very narrow in the deflection angle θs direction according to equation (1). The light beam is emitted from the exit port 28. Now, consider a reference surface RS parallel to the plane on which the light radiation structure 20 is arranged and the distance from the light radiation structure 20 is Zs, and on this reference surface RS, for example, n lines at equal intervals (n is a natural number). Consider forming a line light sweep pattern consisting of the line light of. The light beam emitted from the exit port 28 has a line shape on the reference surface RS, and the deflection angle θs changes by sweeping the wavelength λ1 of the seed light in time (t1 to tun), and the reference surface RS A multi-line line light sweep pattern (L1 to Ln) is formed on the top. As shown in the equation (2), the width of the line light emitted from the light emitting structure 20 can be narrowed by increasing the length of the light emitting structure 20, and the light output can be increased. The light intensity can be increased. This makes it possible to increase the S / N ratio in a bright environment.

最大の偏向角θs_maxは、シード光の波長λ1の掃引範囲によって決定される。具体的には、シード光の波長λ1をカットオフ波長の近傍の990nmから950nmまで約40nm掃引すると、偏向角が約10°〜75°となり、最大の偏向角θs_maxは60°を超える結果が得られている。この時の解像点数は1000を超える高解像度である。 The maximum deflection angle θs_max is determined by the sweep range of the wavelength λ1 of the seed light. Specifically, when the wavelength λ1 of the seed light is swept from 990 nm to 950 nm near the cutoff wavelength by about 40 nm, the deflection angle becomes about 10 ° to 75 °, and the maximum deflection angle θs_max exceeds 60 °. Has been done. The number of resolution points at this time is a high resolution exceeding 1000.

次に参照面RS上での各ラインのライン長について説明する。図6は、ライン光のライン長を説明する図である。例えば、図5で略垂直方向(即ちθs=0)に放射しているライン光L1に対するライン長は、出射口28の横方向の開口幅WTによって概ね決定する。放射する光の電界が開口幅で一様であると仮定すると、遠方での遠視野像は、フラウンホーファ回折となりSINC関数の2乗の強度分布となる。ライン端において電界強度40が0となるライン長を定義するとすれば、ライン長LTは、回折角θdで決定され、式(3a)、(3b)が成り立つ。
LT=2Zs・tan(θd/2) … (3a)
θd≒λ/WT …(3b)
光放射構造20からの距離Zs(図中、Zs1,Zs2)に対応してライン長LT1、LT2が求まる。すなわち、測定対象物の大きさと、測定対象物までの距離Zsに応じて適切な開口幅WTを設定し、所望のライン長LTを得る必要がある。
Next, the line length of each line on the reference surface RS will be described. FIG. 6 is a diagram for explaining the line length of the line light. For example, the line length with respect to the line light L1 radiating in the substantially vertical direction (that is, θs = 0) in FIG. 5 is largely determined by the lateral opening width WT of the exit port 28. Assuming that the electric field of the emitted light is uniform with the aperture width, the far-field image at a distance becomes Fraunhofer diffraction and the intensity distribution of the square of the SINC function. If the line length at which the electric field strength 40 is 0 is defined at the line end, the line length LT is determined by the diffraction angle θd, and the equations (3a) and (3b) hold.
LT = 2Zs · tan (θd / 2)… (3a)
θd≈λ / WT ... (3b)
The line lengths LT1 and LT2 can be obtained corresponding to the distance Zs (Zs1, Zs2 in the figure) from the light radiation structure 20. That is, it is necessary to set an appropriate opening width WT according to the size of the object to be measured and the distance Zs to the object to be measured to obtain a desired line length LT.

図7は、一実施例に係る熱駆動方式のビーム偏向デバイスの断面図である。このビーム偏向デバイス2は、シード光源21sと光放射構造20がモノリシックに集積される。ここで光掃引構造21は、シード光源21s、光放射構造20、そしてそれらを加熱するヒータ51、52、温度制御を行う熱駆動部53を有する。 FIG. 7 is a cross-sectional view of a heat-driven beam deflection device according to an embodiment. In this beam deflection device 2, the seed light source 21s and the light radiation structure 20 are monolithically integrated. Here, the light sweep structure 21 includes a seed light source 21s, a light radiation structure 20, heaters 51 and 52 for heating them, and a heat drive unit 53 for temperature control.

この集積化されたビーム偏向デバイスは、VCSEL構造22sを有するシード光源21sとVCSEL構造22を有する光放射構造20を、同一半導体基板上に形成したものである。 In this integrated beam deflection device, a seed light source 21s having a VCSEL structure 22s and a light emitting structure 20 having a VCSEL structure 22 are formed on the same semiconductor substrate.

VCSEL構造22sは、光放射構造20のVCSEL構造22と同様の構成であり、半導体基板23上に形成された下部DBR24s、活性層25、上部DBR26sを備え、シード光源21sと光放射構造20は、結合面54を介して活性層25を共通とする光結合状態にある。さらにシード光源21sと光放射構造20は、お互いの発振波長が少し異なり、λ1<λ2となるように共振器長を変える構成となっているほうが好ましい。また、反射率を考慮し、上部DBR26sのDBR層数は、光放射構造20のものとは異なり高反射となるように設計される。 The VCSEL structure 22s has the same structure as the VCSEL structure 22 of the light radiation structure 20, and includes a lower DBR 24s, an active layer 25, and an upper DBR 26s formed on the semiconductor substrate 23, and the seed light source 21s and the light radiation structure 20 include. It is in a photobonded state in which the active layer 25 is common via the bonding surface 54. Further, it is preferable that the seed light source 21s and the optical radiation structure 20 have a configuration in which the oscillation wavelengths are slightly different from each other and the resonator length is changed so that λ1 <λ2. Further, in consideration of the reflectance, the number of DBR layers of the upper DBR 26s is designed to have high reflection unlike that of the light radiation structure 20.

駆動部33からしきい値電流以上の電流を駆動電極55から注入することによってシード光源21sを垂直方向に波長λ1で発振させる。この発振モードの光強度分布56の一部が光放射構造20のシード光56sとして染み出す。 The seed light source 21s is oscillated in the vertical direction at the wavelength λ1 by injecting a current equal to or larger than the threshold current from the drive unit 33 from the drive electrode 55. A part of the light intensity distribution 56 in this oscillation mode exudes as seed light 56s of the light radiation structure 20.

一方、駆動部33から光放射構造20に対しても、しきい値電流より大きな電流が注入され波長λ2にて発振状態とする。この時、シード光源21sの光強度分布56の一部が光放射構造20のシード光入力Liとなって光結合し、光放射構造の長手方向に波長λ1のスローライト光が増幅されながら伝搬する。そして光放射構造20の表面に形成された出射口28から出射光Loが放射される。 On the other hand, a current larger than the threshold current is also injected from the drive unit 33 into the light radiation structure 20 to bring it into an oscillating state at the wavelength λ2. At this time, a part of the light intensity distribution 56 of the seed light source 21s becomes the seed light input Li of the light radiation structure 20 and photocouples, and the slow light light having a wavelength λ1 propagates in the longitudinal direction of the light radiation structure while being amplified. .. Then, the emitted light Lo is emitted from the exit port 28 formed on the surface of the light emitting structure 20.

熱駆動部53の制御について説明する。図7では、説明のため、シード光源21sを加熱するヒータ51と光放射構造20を加熱するヒータ52を基板23下に記載しているが、加熱効率の観点からビーム偏向デバイス2の上面に配置することが好ましく、さらには熱的なアイソレーションのため、結合面54付近に、例えば空隙57などの熱分離が可能な構造を形成する。それぞれのヒータ51、52の温度調整をすることにより屈折率が変化し、それに伴い発振波長λ1,λ2が変化するため、出射光Loの偏向角θsを掃引することができる。 The control of the thermal drive unit 53 will be described. In FIG. 7, for the sake of explanation, the heater 51 for heating the seed light source 21s and the heater 52 for heating the light radiation structure 20 are shown under the substrate 23, but are arranged on the upper surface of the beam deflection device 2 from the viewpoint of heating efficiency. Further, due to thermal isolation, a structure capable of heat separation such as a void 57 is formed in the vicinity of the bonding surface 54. By adjusting the temperature of each of the heaters 51 and 52, the refractive index changes, and the oscillation wavelengths λ1 and λ2 change accordingly, so that the deflection angle θs of the emitted light Lo can be swept.

式(1)をみてわかるように、光放射構造20のカットオフ波長λcを変化させても出射光Loの偏向角を変えることが可能である。VCSEL構造22を有する光放射構造20では、カットオフ波長λcは、光放射構造20の単体発振波長λ2と等しいことから、式(1)を式(4)のように書き換える。 As can be seen from the equation (1), it is possible to change the deflection angle of the emitted light Lo by changing the cutoff wavelength λc of the light radiation structure 20. In the light radiation structure 20 having the VCSEL structure 22, the cutoff wavelength λc is equal to the single oscillation wavelength λ2 of the light radiation structure 20, so the equation (1) is rewritten as the equation (4).

sinθr=n・sinθi=n√(1−(λ1/λ2)) …(4)
すなわち、シード光源21sと光放射構造20の単体発振波長λ1とλ2の変化が反対になるようにヒータ51、52を制御することで効率的な偏向制御が行える。もちろんシード光源21sと光放射構造20のどちらか一方の温度を変えてもよい。
sinθr = n · sinθi = n√ (1- (λ1 / λ2) 2 )… (4)
That is, efficient deflection control can be performed by controlling the heaters 51 and 52 so that the changes of the single oscillation wavelengths λ1 and λ2 of the seed light source 21s and the light radiation structure 20 are opposite to each other. Of course, the temperature of either the seed light source 21s or the light radiation structure 20 may be changed.

図8は、マイクロマシン構造によるビーム偏向デバイスの断面図である。図7と異なる点は、シード光源21sと光放射構造20の上部DBR26s、26にそれぞれエアギャップ層58s、58を設け、このエアギャップ層58sの厚みがMEMS(Micro Electro Mechanical Systems)構造によって可変に構成されている点である。エアギャップ層58sの厚みを変化させることで、上部DBR26sで構成される高反射ミラーの位置を制御でき、これによりシード光源21sのキャビティ長が変化し、発振波長λ1を変化させることができる。さらに、このMEMS構造を制御するMEMS駆動部60を備える。これにより、光掃引構造21は、MEMS構造を有するシード光源21sとMEMS駆動部60を有する。なお、図8では、図7で記載の駆動部33を省略した。 FIG. 8 is a cross-sectional view of a beam deflection device with a micromachine structure. The difference from FIG. 7 is that the seed light source 21s and the upper DBRs 26s and 26 of the light radiation structure 20 are provided with air gap layers 58s and 58, respectively, and the thickness of the air gap layers 58s can be changed by the MEMS (Micro Electro Mechanical Systems) structure. It is a point that is composed. By changing the thickness of the air gap layer 58s, the position of the high-reflection mirror composed of the upper DBR26s can be controlled, whereby the cavity length of the seed light source 21s can be changed and the oscillation wavelength λ1 can be changed. Further, a MEMS driving unit 60 for controlling the MEMS structure is provided. As a result, the light sweep structure 21 has a seed light source 21s having a MEMS structure and a MEMS driving unit 60. In FIG. 8, the drive unit 33 described in FIG. 7 is omitted.

MEMS駆動部60は、MEMS制御電極59に印加する電圧を変化させることでシード光源21sのエアギャップ層58の層厚を変化させ、発振波長λ1を掃引する制御を行う。 The MEMS driving unit 60 changes the layer thickness of the air gap layer 58 of the seed light source 21s by changing the voltage applied to the MEMS control electrode 59, and controls to sweep the oscillation wavelength λ1.

なお、光放射構造20側にもエアギャップ層58を変化させるMEMS構造を形成してもよい。その場合は、熱的制御と同様に、単体発振波長λ1とλ2を変化が反対となるような制御を行うと効率がよい。 A MEMS structure that changes the air gap layer 58 may also be formed on the light radiation structure 20 side. In that case, it is efficient to control the single oscillation wavelengths λ1 and λ2 so that the changes are opposite to each other, as in the case of thermal control.

以上のように構成されたビーム偏向デバイス2を用いて、光掃引制御部3は、ライン光を時間的に掃引し、ライン光を送出した時間とライン光の偏向角に基づいてライン光の掃引パターンを生成する。その結果、所定のライン間隔で、所定数のラインからなる種々のライン光の掃引パターンを生成することができる。 Using the beam deflection device 2 configured as described above, the light sweep control unit 3 sweeps the line light in time, and sweeps the line light based on the time when the line light is transmitted and the deflection angle of the line light. Generate a pattern. As a result, it is possible to generate various line light sweep patterns composed of a predetermined number of lines at predetermined line intervals.

(シングルカメラ方式)
図9は、本実施形態の測距センサを車載用に応用した場合の概念図である。また、図10は、シングルカメラ方式の測距方法の説明図である。図9、および図10を用いて、車両90のフロントガラス中央上部に本実施形態の測距センサ1が搭載されている場合を例にとりシングルカメラ方式の測距方法について説明する。
(Single camera method)
FIG. 9 is a conceptual diagram when the distance measuring sensor of the present embodiment is applied to a vehicle. Further, FIG. 10 is an explanatory diagram of a single camera type distance measuring method. A single camera type distance measuring method will be described with reference to FIGS. 9 and 10 by taking as an example a case where the distance measuring sensor 1 of the present embodiment is mounted on the upper center of the windshield of the vehicle 90.

図9においてビーム偏向デバイス2は、車両90の前方に位置する立方体形状の測定対象物Obに対して偏向角θsでライン光Lnを投光したとする。この時、焦点距離f、視野角θrを有するカメラ4は、イメージセンサ42上に測定対象物Obに投光されたライン光を撮像する。測定対象物Obの立方体前面までの距離をZs1、立方体後面までの距離をZs2とすると、イメージセンサ42上には、測定対象物Obの厚み(Zs2−Zs1)が異なる画素位置x1、x2に撮像される。すなわち、測定対象物までの距離差はイメージセンサ42上ではライン歪みとして観測される。 In FIG. 9, it is assumed that the beam deflection device 2 projects line light Ln at a deflection angle θs with respect to a cube-shaped measurement object Ob located in front of the vehicle 90. At this time, the camera 4 having the focal length f and the viewing angle θr captures the line light projected on the measurement object Ob on the image sensor 42. Assuming that the distance of the object to be measured Ob to the front surface of the cube is Zs1 and the distance to the rear surface of the cube is Zs2, images are taken on the image sensor 42 at pixel positions x1 and x2 having different thicknesses (Zs2-Zs1) of the object to be measured Ob. Will be done. That is, the difference in distance to the object to be measured is observed as line distortion on the image sensor 42.

図10において、ビーム偏向デバイス2から測定対象物Obまでの距離をZs、ライン光Lnの偏向角をθs、ビーム偏向デバイス2とイメージセンサ42の中心までの距離をD、レンズ41の焦点距離をf、測定対象物Obのライン光を撮像するイメージセンサ42の中心からのX方向への距離をp・x(p:画素サイズ、x:画素数)とすると、三角測量の原理によりビーム偏向デバイス2から測定対象物Obまでの距離Zsが求まる。
Zs=D・f/(f・tanθs+p・x) …(5)
In FIG. 10, the distance from the beam deflection device 2 to the object to be measured Ob is Zs, the deflection angle of the line light Ln is θs, the distance between the beam deflection device 2 and the center of the image sensor 42 is D, and the focal length of the lens 41 is. f. Assuming that the distance in the X direction from the center of the image sensor 42 that captures the line light of the object to be measured Ob is p · x (p: pixel size, x: number of pixels), the beam deflection device is based on the principle of triangular measurement. The distance Zs from 2 to the object to be measured Ob can be obtained.
Zs = D ・ f / (f ・ tanθs + p ・ x)… (5)

図11は、ビーム偏向デバイスからライン光の偏向角を−30°から30°と掃引した時の測距距離とイメージセンサ上での画素位置を示す図である。ここで画素位置xは、イメージセンサ42の中心からの距離p・xを画素サイズpで割った画素数xを表している。計算に用いたパラメータは、D=100mm、f=10mm、ピクセルサイズ10μmである。この時、送信側での偏向角制御は1ライン光当たり0.05°の制御を行い、解像度は1200である。 FIG. 11 is a diagram showing the distance measurement distance and the pixel position on the image sensor when the deflection angle of the line light is swept from −30 ° to 30 ° from the beam deflection device. Here, the pixel position x represents the number of pixels x obtained by dividing the distance p · x from the center of the image sensor 42 by the pixel size p. The parameters used in the calculation are D = 100 mm, f = 10 mm, and pixel size 10 μm. At this time, the deflection angle control on the transmitting side controls 0.05 ° per line of light, and the resolution is 1200.

ライン光を撮像したイメージセンサ42上での画素位置xは整数値であるから、これにより最大測距距離Zs_maxは式(6)、測距誤差ΔZsは、式(7)となる。 Since the pixel position x on the image sensor 42 that captures the line light is an integer value, the maximum ranging distance Zs_max is given by Eq. (6), and the ranging error ΔZs is given by Eq. (7).

Zs_max=D・f/p …(6)
ΔZs=Zs・p/(D・f+Zs・p) …(7)
例えば、上記のパラメータを用いると、最大測距距離Zs_maxは100m、測距誤差ΔZsは50mとなる。このようにステレオカメラ方式は視差を利用するために、100m程度の測距距離Zsでは、大きな測距誤差ΔZsを持つことになる。
Zs_max = D ・ f / p… (6)
ΔZs = Zs 2 · p / (D · f + Zs · p)… (7)
For example, using the above parameters, the maximum distance measurement distance Zs_max is 100 m, and the distance measurement error ΔZs is 50 m. As described above, since the stereo camera system utilizes parallax, it has a large ranging error ΔZs at a ranging distance Zs of about 100 m.

これを解決するためには、画素サイズを小さくすることが有効であるが、本実施形態では、ピーク位置算出部502において、ライン光の一画素内でのラインピーク撮像位置を算出推定する。これにより、サブピクセル精度のラインピークを得ることができる。 In order to solve this, it is effective to reduce the pixel size, but in the present embodiment, the peak position calculation unit 502 calculates and estimates the line peak imaging position within one pixel of the line light. As a result, a line peak with subpixel accuracy can be obtained.

図12は、一画素内のラインピークを算出するための説明図である。イメージセンサ42上で撮像されたライン光Lnの強度は、各画素内のフォトデテクタで受光した電荷量が所定のビット数でデジタル化された画素値として出力される。また、X方向の画素サイズによってライン光の分解能が決定されてしまう。まず、ライン光Lnを撮像した最大画素値Sxとなる画素xを求め、その前後の画素を考える。図12の例では、中心画素xに対して前後2画素を考慮した。 FIG. 12 is an explanatory diagram for calculating a line peak within one pixel. The intensity of the line light Ln imaged on the image sensor 42 is output as a pixel value in which the amount of charge received by the photodetector in each pixel is digitized by a predetermined number of bits. Further, the resolution of the line light is determined by the pixel size in the X direction. First, the pixel x having the maximum pixel value Sx obtained by imaging the line light Ln is obtained, and the pixels before and after the pixel x are considered. In the example of FIG. 12, two front and rear pixels are considered with respect to the center pixel x.

一画素内のラインピークを算出する方法は、例えば以下のような方法が考えられる。
(1)テンプレートマッチング法。
ライン光LnのX方向の強度プロファイルをガウス分布と仮定し、これをテンプレートとする。そして各画素値(Qx−1〜Qx+1)とマッチングするような強度プロファイルを求める。図12の例では、画素サイズpと同程度の偏差σwを有する強度プロファイル120a(実線)がマッチングされラインピークXpが求まる。
As a method of calculating the line peak in one pixel, for example, the following method can be considered.
(1) Template matching method.
The intensity profile of the line light Ln in the X direction is assumed to be a Gaussian distribution, and this is used as a template. Then, an intensity profile that matches each pixel value (Qx-1 to Qx + 1) is obtained. In the example of FIG. 12, the intensity profile 120a (solid line) having a deviation σw similar to the pixel size p is matched and the line peak Xp is obtained.

(2)等角直線補間法
中心画素xと両隣の画素x−1、x+1の3画素を用いる。まず中心画素xと画素x−1を結んだ直線の傾きと、中心画素xと画素x+1を結んだ直線の傾きのうち、傾きの大きい方の直線120bを採用する。次にこの直線120bの傾きを反転させ、かつ、反対側の画素x−1を通る直線120cを求める。そして両直線120b、120cの交わる位置によりラインピークXpを求める。あるいはこの3画素を2次曲線でフィッティングすることによりラインピークXpを求めてもよい。
(2) Equal-angle linear interpolation method Three pixels of the center pixel x and the pixels x-1 and x + 1 on both sides are used. First, of the slope of the straight line connecting the center pixel x and the pixel x-1 and the slope of the straight line connecting the center pixel x and the pixel x + 1, the straight line 120b having the larger slope is adopted. Next, the slope of the straight line 120b is reversed, and the straight line 120c passing through the pixel x-1 on the opposite side is obtained. Then, the line peak Xp is obtained from the position where the two straight lines 120b and 120c intersect. Alternatively, the line peak Xp may be obtained by fitting these three pixels with a quadratic curve.

(3)重心法
中心画素xとその周辺画素に対して式(8)に示す重み付平均をとることにより、ラインピークXpを求める。
Xp=Σx・Qx/ΣQx …(8)
(3) Center of gravity method The line peak Xp is obtained by taking the weighted average shown in the equation (8) for the central pixel x and its peripheral pixels.
Xp = Σx ・ Qx / ΣQx… (8)

(4)ガウシアンフィルタ法
中心画素xおよびその周辺画素の画素値に対してガウス分布の重み付け(畳み込み処理)を行うことで自然な平滑化を行い、ラインピークXpを求める。
(4) Gaussian filter method Natural smoothing is performed by weighting the Gaussian distribution (convolution processing) on the pixel values of the central pixel x and its peripheral pixels, and the line peak Xp is obtained.

(5)ラプラシアンフィルタ法
中心画素xおよびその周辺画素の画素値に対してラプラシアンの重み付け(畳み込み処理)を行うことでライン光の両エッジを求め、その中心をラインピークXpとして求める。この方法では、両エッジの幅からライン光の幅σwも見積もることができる。ライン光の幅σwにより、畳み込み処理において選択すべき最小限の周辺画素数を見積もることが可能である。
(5) Laplacian filter method Both edges of the line light are obtained by weighting (convolution processing) the Laplacian with respect to the pixel values of the center pixel x and its peripheral pixels, and the center is obtained as the line peak Xp. In this method, the width σw of the line light can also be estimated from the widths of both edges. From the width σw of the line light, it is possible to estimate the minimum number of peripheral pixels to be selected in the convolution process.

これらの方法は、システムで求められる処理速度と位置精度の兼ね合いで適宜選択される。もちろん上記の方法以外の方法でもよい。一点鎖線で示す強度プロファイル120dように、ライン光Lnの強度プロファイルの幅が、画素サイズpより小さい場合には、中心画素xの隣接画素の画素値が0近くなり雑音に埋もれる場合が生じる。このような場合には、上述したラインピークの推定が精度良く行えないため、少なくとも3画素で正確な画素値が検出できるように、ライン光の強度プロファイルの幅σwと画素サイズpを設定する必要がある。 These methods are appropriately selected in consideration of the processing speed and position accuracy required by the system. Of course, a method other than the above method may be used. When the width of the intensity profile of the line light Ln is smaller than the pixel size p as in the intensity profile 120d indicated by the one-point chain line, the pixel value of the adjacent pixel of the central pixel x may be close to 0 and may be buried in noise. In such a case, since the above-mentioned line peak cannot be estimated accurately, it is necessary to set the width σw and the pixel size p of the line light intensity profile so that an accurate pixel value can be detected with at least 3 pixels. There is.

次に、画素範囲選択部501の動作について図13を用いて説明する。計算に用いたパラメータは図11と同じである。ライン光が時間プロファイルに同期して偏向角θsが−30°から30°まで掃引されると、測距曲線130がScanと書かれた矢印方向に移動していく。このことから、イメージセンサ42上の全ての画素を露光する、もしくは、全ての画素の画素値の読み出す必要がないことがわかる。例えば測距範囲を1m〜100mと仮定すると各測距曲線130で必要な水平方向の画素範囲ROI_hが決定する。図13の場合では、ROI_hは100画素程度である。偏向角θsに基づいてイメージセンサ42上の画素範囲が設定されるため、たとえ測定対象物が測距範囲に存在しなくても(ライン光の反射光がない場合でも)適切に画素範囲を設定することができる。 Next, the operation of the pixel range selection unit 501 will be described with reference to FIG. The parameters used in the calculation are the same as in FIG. When the line light is swept from −30 ° to 30 ° in deflection angle θs in synchronization with the time profile, the ranging curve 130 moves in the direction of the arrow marked Scan. From this, it can be seen that it is not necessary to expose all the pixels on the image sensor 42 or read out the pixel values of all the pixels. For example, assuming that the ranging range is 1 m to 100 m, the required horizontal pixel range ROI_h is determined for each ranging curve 130. In the case of FIG. 13, ROI_h is about 100 pixels. Since the pixel range on the image sensor 42 is set based on the deflection angle θs, the pixel range is set appropriately even if the object to be measured does not exist in the distance measurement range (even if there is no reflected light of the line light). can do.

また、垂直方向の画素範囲ROI_vについて図14を用いて説明する。図6で説明したように、ライン長LTは回折角θdで決定される。イメージセンサ42上での画素範囲ROI_vは、回折角θdとレンズの焦点距離fで決定され、式(9)となる。
ROI_v=2f・tan(θd/2) …(9)
焦点距離fを可変できるズーム機構を有するカメラ4であれば、焦点距離fの変化によりROI_vを可変する。
Further, the pixel range ROI_v in the vertical direction will be described with reference to FIG. As described with reference to FIG. 6, the line length LT is determined by the diffraction angle θd. The pixel range ROI_v on the image sensor 42 is determined by the diffraction angle θd and the focal length f of the lens, and is given by the equation (9).
ROI_v = 2f · tan (θd / 2)… (9)
If the camera 4 has a zoom mechanism capable of changing the focal length f, ROI_v is changed by changing the focal length f.

図15は、イメージセンサ42上の画素範囲の説明図である。図13で説明したROI_hと図14で説明したROI_vとで画素範囲150を設定し、この画素範囲を時間プロファイル(ライン光の掃引)と同期して移動させる。直線151は、測距最大値に対応する画素位置を示しており、測距できる範囲(例えば1mから100m)に対応する画素が画素範囲150内に含むように設定する。 FIG. 15 is an explanatory diagram of a pixel range on the image sensor 42. The pixel range 150 is set by the ROI_h described with reference to FIG. 13 and the ROI_v described with reference to FIG. 14, and this pixel range is moved in synchronization with the time profile (sweep of line light). The straight line 151 indicates the pixel position corresponding to the maximum distance measurement value, and the pixel corresponding to the distance measurement range (for example, 1 m to 100 m) is set to be included in the pixel range 150.

この画素範囲は、イメージセンサ42の画素の露光範囲、および画素値の読み出し範囲とすることができる。また、画素の露光範囲と、画素値の読み出し範囲とを異なるように設定してもよい。イメージセンサ42の画素の露光範囲を限定することは、シャッタースピードや感度設定の安定化をもたらすと同時に、外乱光、反射光、環境光の影響などを低減できる。また、画素値の読み出し範囲を限定することにより測距処理の高速化が可能となる。画素範囲の設定方法のバリエーションについては、後述する。夜間のように太陽光の影響が少ない実施形態では、画素の露光範囲を設定せず、画素値の読み出し範囲だけを設定してもよい。 This pixel range can be the exposure range of the pixels of the image sensor 42 and the reading range of the pixel values. Further, the exposure range of the pixel and the read range of the pixel value may be set differently. Limiting the exposure range of the pixels of the image sensor 42 brings about stabilization of the shutter speed and sensitivity setting, and at the same time, it is possible to reduce the influence of ambient light, reflected light, ambient light, and the like. Further, by limiting the reading range of the pixel value, the distance measuring process can be speeded up. Variations of the pixel range setting method will be described later. In the embodiment where the influence of sunlight is small such as at night, the exposure range of the pixels may not be set, but only the reading range of the pixel values may be set.

画素範囲選択部501で選択された画素範囲で撮像されたライン光の画素値は、ピーク位置算出部502でライン光のラインピークが算出され、距離測定部503は、このラインピークを基に測定対象物までの距離を算出する。 For the pixel value of the line light captured in the pixel range selected by the pixel range selection unit 501, the line peak of the line light is calculated by the peak position calculation unit 502, and the distance measurement unit 503 measures based on this line peak. Calculate the distance to the object.

図16は3次元距離動画生成のフローチャートである。まず、ステップST1では、フレームレート設定部504により取得したい3次元距離動画のフレームレートfrを設定する。例えば30fps(frames per second)などである。 FIG. 16 is a flowchart for generating a three-dimensional distance moving image. First, in step ST1, the frame rate fr of the three-dimensional distance moving image to be acquired is set by the frame rate setting unit 504. For example, 30 fps (frames per second).

ステップST2では、時間プロファイル設定部31において、設定されたフレームレートfrの逆数(1/fr)に対応する時間プロファイルをメモリ6から読み出し、1フレーム生成のためのライン光の解像度数n、掃引するライン光の偏向角の範囲などが設定される。 In step ST2, the time profile setting unit 31 reads the time profile corresponding to the reciprocal (1 / fr) of the set frame rate fr from the memory 6 and sweeps the line light resolution number n for generating one frame. The range of the deflection angle of the line light is set.

続けてステップST3では、ライン光を繰り返し掃引するための掃引周波数fs、掃引周波数fsの繰り返し周期内でライン光を発光する発光タイミングts(t1〜tn)、発光タイミングtsに対する偏向角θs(θ1〜θn)が設定される。そして、波長設定部32では、偏向角θsに対応する制御波長λ1、λ2が設定され、ライン光の投光が開始される。 Subsequently, in step ST3, the sweep frequency fs for repeatedly sweeping the line light, the emission timing ts (t1 to tun) for emitting the line light within the repeating cycle of the sweep frequency fs, and the deflection angle θs (θ1 to θ1 θn) is set. Then, in the wavelength setting unit 32, the control wavelengths λ1 and λ2 corresponding to the deflection angles θs are set, and the projection of the line light is started.

ステップST4では、画素範囲選択部501は偏向角θsに基づき、イメージセンサ42上の画素範囲を設定する。この画素範囲内において測距範囲内の測定対象物物を投光したライン光は撮像される。この画素範囲についてシャッターを開いて露光し、この画素範囲の画素値を読みだす。 In step ST4, the pixel range selection unit 501 sets the pixel range on the image sensor 42 based on the deflection angle θs. The line light that projects the object to be measured within the distance measurement range within this pixel range is imaged. The shutter is opened for exposure for this pixel range, and the pixel value of this pixel range is read out.

ステップST5では、ピーク位置算出部502において、読みだした画素値のうち、水平方向(行方向)の最大値を求め、その隣接する周辺画素値を用いて、一画素内のラインピークを求める。 In step ST5, the peak position calculation unit 502 obtains the maximum value in the horizontal direction (row direction) among the read pixel values, and uses the adjacent peripheral pixel values to obtain the line peak in one pixel.

ステップST6では、距離測定部503は、偏向角θsとラインピークを用いて測定対象物までの距離Zsを算出する。これにより1ライン光に対する測距が完了する。 In step ST6, the distance measuring unit 503 calculates the distance Zs to the measurement target using the deflection angle θs and the line peak. This completes the distance measurement for one line of light.

さらにステップST7では、解像度nのライン光全てが掃引され、測距処理が完了しているかを判断する。解像度nのライン光全てが掃引されていれば(ST7:Yes)、1フレーム画像を生成し、解像度nのライン光全てが掃引されていなければ(ST7:No)、ステップST3に戻り、次のts、θsを設定してライン光の投光を行う。 Further, in step ST7, all the line lights having the resolution n are swept, and it is determined whether the distance measurement process is completed. If all the line lights of resolution n are swept (ST7: Yes), a one-frame image is generated, and if all the line lights of resolution n are not swept (ST7: No), the process returns to step ST3 and the next step is performed. Line light is projected by setting ts and θs.

以上のステップにより、1フレームの3次元距離画像が生成され、この1フレームの生成動作を繰り返すことで3次元距離動画が生成される。 By the above steps, a one-frame three-dimensional distance image is generated, and by repeating this one-frame generation operation, a three-dimensional distance moving image is generated.

(デュアルカメラ方式)
図17はデュアルカメラ方式の測距方法の説明図である。ビーム偏向デバイス2の左右にカメラ4R、4Lを用意した。各イメージセンサ42R、42Lの撮像距離をpr、plと表記した。なお、説明のため、ビーム偏向デバイス2と左右のカメラ4R、4Lとの距離D、また焦点距離fを等しくしているが、異なる距離D、焦点距離fを設定してもよい。
(Dual camera method)
FIG. 17 is an explanatory diagram of a distance measuring method of the dual camera system. Cameras 4R and 4L were prepared on the left and right of the beam deflection device 2. The imaging distances of the image sensors 42R and 42L are expressed as pr and pl. For the sake of explanation, the distance D and the focal length f between the beam deflection device 2 and the left and right cameras 4R and 4L are the same, but different distances D and focal length f may be set.

デュアルカメラ方式において、ビーム偏向デバイス2から測定対象物Obまでの距離Zsは、式(10)で求められる。
Zs=D・f/(pr−pl) …(10)
式(10)においては、偏向角θsを使用しないため、偏向角θsの制御精度が取れない場合にも精度のよい測距が行える。
In the dual camera system, the distance Zs from the beam deflection device 2 to the object to be measured Ob is calculated by the equation (10).
Zs = D · f / (pr-pl)… (10)
Since the deflection angle θs is not used in the equation (10), accurate distance measurement can be performed even when the control accuracy of the deflection angle θs cannot be obtained.

図18は、デュアルカメラ方式において選択されるイメージセンサの画素範囲(偏向角方向)を算出する説明図である。計算に用いたパラメータは図11、図13と同様である。イメージセンサ42R、42Lに対する測距曲線130R、130Lを同時に表示している。図18の例では、イメージセンサ42R、42Lに対して同じ画素範囲ROI_hを設定している。同じ画素範囲を設定することで制御を共通化できる。尚、ROI_vは、シングルカメラ方式と同様である。 FIG. 18 is an explanatory diagram for calculating the pixel range (deflection angle direction) of the image sensor selected in the dual camera system. The parameters used in the calculation are the same as those in FIGS. 11 and 13. The ranging curves 130R and 130L for the image sensors 42R and 42L are displayed at the same time. In the example of FIG. 18, the same pixel range ROI_h is set for the image sensors 42R and 42L. Control can be standardized by setting the same pixel range. ROI_v is the same as the single camera system.

図19は、イメージセンサ42R、42L上の画素範囲設定のバリエーションを示している。図19(a)は、図18に示したように、測距最大値の画素を示す直線151を中心に画素範囲を選択した場合である。図19(b)は、イメージセンサ42R、42Lに対して別々の画素範囲150R、150Lを設定した場合である。図19(c)は、比較的広い画素範囲150Wを指定しておき、画素範囲150Wをある時間固定してライン光を掃引する場合である。 FIG. 19 shows a variation of the pixel range setting on the image sensors 42R and 42L. FIG. 19A shows a case where the pixel range is selected centering on the straight line 151 indicating the pixel having the maximum distance measurement value, as shown in FIG. FIG. 19B shows a case where different pixel ranges 150R and 150L are set for the image sensors 42R and 42L. FIG. 19C shows a case where a relatively wide pixel range of 150 W is specified, the pixel range of 150 W is fixed for a certain period of time, and the line light is swept.

以上述べたように、第1の実施形態によれば、ライン光を掃引する方式を採用しているため、測定対象物を投光するレーザ光の強度を高めることが可能である。そのため、長距離の測定対象物への投光が可能となる。また、明るい環境下においてもS/N比を高めることができるため、安定した測距が行える。 As described above, according to the first embodiment, since the method of sweeping the line light is adopted, it is possible to increase the intensity of the laser light that projects the light to be measured. Therefore, it is possible to project light on a long-distance measurement object. Moreover, since the S / N ratio can be increased even in a bright environment, stable distance measurement can be performed.

ステレオカメラ方式は、視差を利用するため長距離での測距精度が良くないという欠点があるが、本実施形態ではライン光の掃引と同期して一画素内のラインピークを求めることができる。このため、長距離の測距においても十分な精度を得ることが可能である。さらには、イメージセンサの露光、読み出しの画素範囲をライン光の掃引と同期して設定することにより、測距処理の高速化が達成される。 The stereo camera method has a drawback that the distance measurement accuracy over a long distance is not good because it uses parallax, but in the present embodiment, the line peak within one pixel can be obtained in synchronization with the sweep of the line light. Therefore, it is possible to obtain sufficient accuracy even in long-distance distance measurement. Further, by setting the exposure and readout pixel ranges of the image sensor in synchronization with the sweeping of the line light, the speeding up of the distance measuring process is achieved.

VCSEL構造を有するビーム偏向デバイスは、小型で高解像度のビーム掃引が可能である。また、ビーム掃引においてレンズなどの光学部品を必要としないため、高速で小型な測距センサが実現できる。従来に比べて非常に小型化が可能であるため、本実施形態の測距センサを車載用に適用した場合、車両の前後(例えばナンバープレート付近)、側面(例えばドア、ドアミラー付近)にも容易に搭載することが可能であり、自動運転への信頼性を向上させることが可能である。 The beam deflection device having a VCSEL structure is small and capable of high resolution beam sweeping. Further, since the beam sweep does not require an optical component such as a lens, a high-speed and compact distance measuring sensor can be realized. Since it can be made much smaller than the conventional one, when the distance measuring sensor of this embodiment is applied to an in-vehicle vehicle, it can be easily applied to the front and rear of the vehicle (for example, near the license plate) and the side surface (for example, near the door and door mirror). It is possible to install it in the vehicle, and it is possible to improve the reliability of automatic operation.

(第2の実施形態)
図20は、第2の実施形態に係る測距センサのブロック図である。第1の実施形態に加え、距離画像生成部5に雑音測定部505、雑音除去部506、距離精度判定部507を有する。
(Second Embodiment)
FIG. 20 is a block diagram of the distance measuring sensor according to the second embodiment. In addition to the first embodiment, the distance image generation unit 5 includes a noise measurement unit 505, a noise removal unit 506, and a distance accuracy determination unit 507.

雑音測定部505は、イメージセンサ42上の雑音を測定する。特に太陽光や対向する車両のヘッドライトなどの外乱光に基づく雑音は測距精度に大きく影響する。もちろんカメラ4には、これらの波長の光をカットするフィルタを装着してもよい。 The noise measuring unit 505 measures the noise on the image sensor 42. In particular, noise caused by ambient light such as sunlight and headlights of oncoming vehicles greatly affects the distance measurement accuracy. Of course, the camera 4 may be equipped with a filter that cuts light of these wavelengths.

図21は、雑音とラインピークの位置精度の関係を示す説明図である。画素値が最大の画素xとその隣接する周辺画素の5画素についてガウス型の強度プロファイルをマッチングすることを考える。この時、各画素値が偏差σnを有するランダムな雑音が加わり、ライン光だけを受光した画素値から偏位するとしたならば、それに伴ってラインピークの位置も偏位することになる。この時の偏差をσxとする。 FIG. 21 is an explanatory diagram showing the relationship between noise and the position accuracy of the line peak. Consider matching a Gaussian intensity profile for 5 pixels of the pixel x having the largest pixel value and its adjacent peripheral pixels. At this time, if random noise is added in which each pixel value has a deviation σn and the pixel value receives only the line light and deviates from the pixel value, the position of the line peak also deviates accordingly. The deviation at this time is σx.

ラインピークの偏差σxが雑音によって生じるとすると、これによる測距の偏差σZsは、シングルカメラ方式の場合、式(5)を微分して式(11)となる。
σZs=Zs・p・σx/(D・f) …(11)
この式(11)は、式(7)の議論と同じように、σxが1画素に近くなれば、100m程度の長距離において測距精度がとれなくなることを意味する。従って、本実施形態の雑音測定部505では、雑音を測定するために図22で示すような方法を採用する。
Assuming that the deviation σx of the line peak is caused by noise, the deviation σZs of the distance measurement due to this is obtained by differentiating the equation (5) into the equation (11) in the case of the single camera method.
σZs = Zs 2・ p ・ σx / (D ・ f)… (11)
This equation (11) means that if σx is close to one pixel, the distance measurement accuracy cannot be obtained over a long distance of about 100 m, as in the discussion of the equation (7). Therefore, the noise measuring unit 505 of the present embodiment employs a method as shown in FIG. 22 for measuring noise.

図22は、雑音測定の説明図である。イメージセンサ42の雑音測定は、時間プロファイルに同期して行うために、図2のライン光の発光タイミングに重ねて表示する。イメージセンサ42は、ライン光の発光タイミングts(t1〜tn)に同期した時間RTs内に露光、画素値の読み取りを行う。これにより背景光雑音を含んだライン光に対する画素値を読み出すことができる。また、これに続いてライン光の非発光タイミングに同期した時間RTnにおいて、露光、画素値の読み取りを行う。これにより背景光雑音のみの画素値を読み出すことができる。 FIG. 22 is an explanatory diagram of noise measurement. Since the noise measurement of the image sensor 42 is performed in synchronization with the time profile, it is displayed superimposed on the emission timing of the line light of FIG. The image sensor 42 exposes and reads the pixel value within the time RTs synchronized with the emission timing ts (t1 to tun) of the line light. As a result, the pixel value for the line light including the background light noise can be read out. Further, following this, the exposure and the pixel value are read at the time RTn synchronized with the non-emission timing of the line light. As a result, the pixel value of only the background light noise can be read out.

図23は、雑音除去部での処理の説明図である。雑音除去部506では、ライン光の発光タイミングtsに同期した時間RTsに読み出した画素値から、ライン光の非発光タイミングに同期した時間RTnに読み出した画素値の減算を行い、背景光雑音を除去した画素値を求める。この雑音除去処理は、偏向角θsで選択された画素範囲について行う。さらには、ラインピークを求めるのに必要な画素にのみこの雑音除去処理を施すことによりさらに測距処理の高速化ができる。 FIG. 23 is an explanatory diagram of processing in the noise removing unit. The noise removing unit 506 removes the background light noise by subtracting the pixel value read out at the time RTn synchronized with the non-emission timing of the line light from the pixel value read out at the time RTs synchronized with the light emission timing ts of the line light. Find the pixel value. This noise removal processing is performed on the pixel range selected by the deflection angle θs. Furthermore, by performing this noise removal processing only on the pixels necessary for obtaining the line peak, the distance measurement processing can be further speeded up.

雑音が除去された画素値は、ピーク位置算出部502に送られラインピークが算出される。これにより、太陽光、外乱光、反射光などの背景光雑音が除去され、高精度なラインピークを算出することができる。 The pixel value from which noise has been removed is sent to the peak position calculation unit 502 to calculate a line peak. As a result, background light noise such as sunlight, ambient light, and reflected light can be removed, and a highly accurate line peak can be calculated.

しかし、背景光の強度が強い場合には、雑音を除去したとしてもライン光の信号成分が小さいと測距精度が上がらない場合がある。距離精度判定部507は、雑音除去部506からSNR(信号対雑音比)を取得する。距離精度はSNRに反比例することから、距離精度を判定し外部に出力する。SNRが所定の値以上でないときは、アラームを発出してもよい。 However, when the intensity of the background light is strong, the distance measurement accuracy may not be improved if the signal component of the line light is small even if the noise is removed. The distance accuracy determination unit 507 acquires an SNR (signal-to-noise ratio) from the noise removal unit 506. Since the distance accuracy is inversely proportional to the SNR, the distance accuracy is determined and output to the outside. If the SNR is not greater than or equal to a predetermined value, an alarm may be issued.

以上述べたように、第2の実施形態によれば第1の実施形態の効果に加え、太陽光、対向する車両のヘッドライトなどの外乱光、および反射光などに起因する背景光雑音が除去され、高精度な測距が行える。 As described above, according to the second embodiment, in addition to the effect of the first embodiment, background light noise caused by sunlight, ambient light such as headlights of an oncoming vehicle, and reflected light is removed. It is possible to measure the distance with high accuracy.

図24は実施形態の測距センサを車載用に応用した場合の種々の搭載例である。図24(a)は、第1の実施形態で示した搭載例であり、前方の障害物を認識するのに適している。図24(b)は、車両の前後(例えばナンバープレート付近)、左右(例えばドア、あるいはドアミラー付近)に測距センサ1を搭載した例である。このような搭載例では自動駐車支援などの用途に適している。本実施形態の3次元装置は回転する機構部品や大きな光学部品を搭載しないため、スマートフォンに搭載可能なサイズで実現できる。このため、車両のどこにでも自由に搭載することが可能である。 FIG. 24 shows various mounting examples when the distance measuring sensor of the embodiment is applied to a vehicle. FIG. 24A is a mounting example shown in the first embodiment, and is suitable for recognizing an obstacle in front of the vehicle. FIG. 24B is an example in which the distance measuring sensors 1 are mounted on the front and rear (for example, near the license plate) and left and right (for example, near the door or the door mirror) of the vehicle. In such a mounting example, it is suitable for applications such as automatic parking support. Since the three-dimensional device of this embodiment does not include a rotating mechanical component or a large optical component, it can be realized in a size that can be mounted on a smartphone. Therefore, it can be freely mounted anywhere in the vehicle.

図24(c)は、ビーム偏向デバイス2とカメラ4を独立して搭載した例である。ビーム偏向デバイス2とカメラ4間の距離Dを大きくするほど、長距離での測距精度を向上することができる。また、光掃引制御部3と距離画像生成部5についても分離してコックピット内などに配置することができるため、カーナビゲーション機能と連携させたり、ドライブレコーダ等のカメラ映像と同期させてもよい。 FIG. 24C shows an example in which the beam deflection device 2 and the camera 4 are mounted independently. As the distance D between the beam deflection device 2 and the camera 4 is increased, the distance measurement accuracy at a long distance can be improved. Further, since the light sweep control unit 3 and the distance image generation unit 5 can be separated and arranged in the cockpit or the like, they may be linked with the car navigation function or synchronized with the camera image of a drive recorder or the like.

また、本実施形態は車載用を例として説明したがこれに限定されないことは言うまでもない。3次元形状測定、顔認識などいろいろな用途で使用できる。 Further, although the present embodiment has been described for in-vehicle use as an example, it goes without saying that the present embodiment is not limited to this. It can be used for various purposes such as 3D shape measurement and face recognition.

尚、本発明のいくつかの実施形態を述べたが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。本実施形態及びその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The present embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

1 測距センサ
2 ビーム偏向デバイス
3 光掃引制御部
4 カメラ
5 距離画像生成部
6 メモリ
7 同期部
8 処理部
20 光放射構造
21 光掃引構造
21s シード光源
22 VCSEL構造
31 時間プロファイル設定部
32 波長設定部
33 駆動部
501 画素範囲選択部
502 ピーク位置算出部
503 距離測定部
504 フレームレート設定部
505 雑音測定部
506 雑音除去部
507 距離精度判定部
1 Distance measurement sensor 2 Beam deflection device 3 Light sweep control unit 4 Camera 5 Distance image generation unit 6 Memory 7 Synchronization unit 8 Processing unit 20 Light radiation structure 21 Light sweep structure 21s Seed light source 22 VCSEL structure 31 Time profile setting unit 32 Wavelength setting Unit 33 Drive unit 501 Pixel range selection unit 502 Peak position calculation unit 503 Distance measurement unit 504 Frame rate setting unit 505 Noise measurement unit 506 Noise removal unit 507 Distance accuracy determination unit

Claims (10)

遠視野像がライン形状となるライン光をデバイス表面から出射可能であり、前記ライン光の偏向角θsが可変に構成される光放射構造を含む、ビーム偏向デバイスと、
前記ライン光が照射された対象物を撮像するイメージセンサと、
前記ライン光の前記偏向角θsを変化させることにより、前記ライン光の照射位置を変化させ、前記イメージセンサの画像データにおける前記ライン光の画素位置にもとづいて、対象物までの距離または前記対象物の3次元形状を測定する処理部と、
を備えることを特徴とする測距センサ。
A beam deflection device including a light emission structure capable of emitting line light having a line shape in a far-field image from the device surface and having a variable deflection angle θs of the line light.
An image sensor that captures an object irradiated with the line light and
By changing the deflection angle θs of the line light, the irradiation position of the line light is changed, and the distance to the object or the object is based on the pixel position of the line light in the image data of the image sensor. A processing unit that measures the three-dimensional shape of
A distance measuring sensor characterized by being provided with.
前記光放射構造は、スローライト光が伝搬するVCSEL(Vertical Cavity Surface Emitting Laser)構造を有することを特徴とする請求項1に記載の測距センサ。 The ranging sensor according to claim 1, wherein the light emitting structure has a VCSEL (Vertical Cavity Surface Emitting Laser) structure in which slow light light propagates. 前記イメージセンサは1個であり、
前記対象物までの距離は、前記偏向角θsと前記画像データにおける前記ライン光の画素位置と、にもとづいて計算されることを特徴とする請求項1または2に記載の測距センサ。
The image sensor is one,
The distance measuring sensor according to claim 1 or 2, wherein the distance to the object is calculated based on the deflection angle θs and the pixel position of the line light in the image data.
前記イメージセンサは2個であり、
前記対象物までの距離は、前記2個のイメージセンサが生成する2つの画像データそれぞれにおける前記ライン光の画素位置にもとづいて計算されることを特徴とする請求項1または2に記載の測距センサ。
There are two image sensors.
The distance measurement according to claim 1 or 2, wherein the distance to the object is calculated based on the pixel position of the line light in each of the two image data generated by the two image sensors. Sensor.
所定の偏向角範囲内を前記ライン光で掃引する時間プロファイルにより画像1フレームを形成し、この時間プロファイルを所定の動画映像のフレームレートと同期して繰り返すことにより、測定対象物の3次元距離動画を生成することを特徴とする請求項1から4のいずれかに記載の測距センサ。 One frame of an image is formed by a time profile that sweeps within a predetermined deflection angle range with the line light, and this time profile is repeated in synchronization with the frame rate of a predetermined moving image image to obtain a three-dimensional distance moving image of an object to be measured. The distance measuring sensor according to any one of claims 1 to 4, wherein the distance measuring sensor is generated. 前記処理部は、前記ライン光のビームプロファイルをガウス分布と仮定し、前記イメージセンサで撮像されたライン光の画素位置と画素値をマッチングすることにより、前記ライン光のピーク位置をサブピクセルの精度で算出することを特徴とする請求項1から5のいずれかに記載の測距センサ。 The processing unit assumes that the beam profile of the line light has a Gaussian distribution, and by matching the pixel position and the pixel value of the line light imaged by the image sensor, the peak position of the line light is determined by the accuracy of the subpixel. The distance measuring sensor according to any one of claims 1 to 5, wherein the distance measuring sensor is calculated according to the above. 前記処理部は、前記イメージセンサで撮像されたライン光の画素値が最大となる画素を求め、その画素と隣接する周辺画素の画素値に対して等角直線補間法もしくは重心法の手法を用いて前記ライン光のピーク位置をサブピクセルの精度で算出することを特徴とする請求項1から5のいずれかに記載の測距センサ。 The processing unit obtains a pixel having the maximum pixel value of the line light imaged by the image sensor, and uses a method of equiangular linear interpolation method or a center of gravity method for the pixel values of peripheral pixels adjacent to the pixel. The distance measuring sensor according to any one of claims 1 to 5, wherein the peak position of the line light is calculated with a subpixel accuracy. 前記ライン光の測距範囲に基づいて前記イメージセンサの画素範囲を選択する画素範囲選択部をさらに有することを特徴とする請求項1から7のいずれかに記載の測距センサ。 The distance measuring sensor according to any one of claims 1 to 7, further comprising a pixel range selection unit that selects a pixel range of the image sensor based on the distance measuring range of the line light. 前記ライン光の発光タイミングに同期して読み出した画素値から前記ライン光の非発光タイミングに同期して読み出した画素値の減算を行う雑音除去部をさらに有することを特徴とする請求項1から8のいずれかに記載の測距センサ。 Claims 1 to 8 further include a noise removing unit that subtracts the pixel value read out in synchronization with the non-emission timing of the line light from the pixel value read out in synchronization with the emission timing of the line light. The ranging sensor according to any one of. 前記イメージセンサで撮像される前記ライン光のSN比を測定する雑音測定部と、このSN比により距離精度を判定する距離精度判定部と、をさらに有することを特徴とする請求項1から9のいずれかに記載の測距センサ。 Claims 1 to 9 further include a noise measuring unit that measures the SN ratio of the line light imaged by the image sensor, and a distance accuracy determining unit that determines the distance accuracy based on the SN ratio. The ranging sensor described in either.
JP2019043556A 2019-03-11 2019-03-11 Ranging sensor Pending JP2020148475A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019043556A JP2020148475A (en) 2019-03-11 2019-03-11 Ranging sensor
PCT/JP2020/008804 WO2020184269A1 (en) 2019-03-11 2020-03-03 Ranging sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043556A JP2020148475A (en) 2019-03-11 2019-03-11 Ranging sensor

Publications (1)

Publication Number Publication Date
JP2020148475A true JP2020148475A (en) 2020-09-17

Family

ID=72427364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043556A Pending JP2020148475A (en) 2019-03-11 2019-03-11 Ranging sensor

Country Status (2)

Country Link
JP (1) JP2020148475A (en)
WO (1) WO2020184269A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022104906A1 (en) * 2020-11-17 2022-05-27 中国科学院上海微系统与信息技术研究所 Micro-displacement mechanism with non-hermitian coupling angle detection and correction device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07174536A (en) * 1993-12-20 1995-07-14 Minolta Co Ltd Three dimensional shape-measuring apparatus
JPH0942940A (en) * 1995-08-03 1997-02-14 Canon Inc Shape measuring method and device for three-dimensional object
JPH11148806A (en) * 1997-11-18 1999-06-02 Fuji Xerox Co Ltd Reader for three-dimensional body and its susrface image
JP2003185412A (en) * 2001-12-18 2003-07-03 Toshiba Corp Apparatus and method for acquisition of image
US20150002658A1 (en) * 2013-06-28 2015-01-01 National Taiwan Ocean University Liquid level measuring device
WO2016030924A1 (en) * 2014-08-27 2016-03-03 株式会社ニコンビジョン Rangefinder

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07174536A (en) * 1993-12-20 1995-07-14 Minolta Co Ltd Three dimensional shape-measuring apparatus
JPH0942940A (en) * 1995-08-03 1997-02-14 Canon Inc Shape measuring method and device for three-dimensional object
JPH11148806A (en) * 1997-11-18 1999-06-02 Fuji Xerox Co Ltd Reader for three-dimensional body and its susrface image
JP2003185412A (en) * 2001-12-18 2003-07-03 Toshiba Corp Apparatus and method for acquisition of image
US20150002658A1 (en) * 2013-06-28 2015-01-01 National Taiwan Ocean University Liquid level measuring device
WO2016030924A1 (en) * 2014-08-27 2016-03-03 株式会社ニコンビジョン Rangefinder

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Beam Steering, Beam Shaping, and Intensity Modulation Based on VCSEL Photonics", IEEE JOURNAL OF SELECTED TOPICS IN QUANTUM ELECTRONICS, vol. 19, no. 4, JPN6022022545, August 2013 (2013-08-01), ISSN: 0004931271 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022104906A1 (en) * 2020-11-17 2022-05-27 中国科学院上海微系统与信息技术研究所 Micro-displacement mechanism with non-hermitian coupling angle detection and correction device

Also Published As

Publication number Publication date
WO2020184269A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
Hsu et al. A review and perspective on optical phased array for automotive LiDAR
US10754036B2 (en) Scanning illuminated three-dimensional imaging systems
JP7203217B2 (en) Time-of-flight sensor with structured light illumination
JP6387407B2 (en) Perimeter detection system
KR102020037B1 (en) Hybrid LiDAR scanner
JP4402400B2 (en) Object recognition device
JP7011290B2 (en) 3D measurement projector and 3D measurement device
EP2824418A1 (en) Surround sensing system
KR102059258B1 (en) LiDAR scanning device
US11789128B2 (en) Fiber-based transmitter and receiver channels of light detection and ranging systems
US20230358870A1 (en) Systems and methods for tuning filters for use in lidar systems
WO2020184269A1 (en) Ranging sensor
Fujioka et al. Solid state LiDAR with sensing distance of over 40m using a VCSEL beam scanner
CN106839991B (en) Laser scanning device and laser scanning method applied to three-dimensional scene measurement
EP4327122A1 (en) Transmitter channels of light detection and ranging systems
US11871130B2 (en) Compact perception device
TW202407380A (en) Lidar system and resolusion improvement method thereof
US11614521B2 (en) LiDAR scanner with pivot prism and mirror
KR102580701B1 (en) Dynamic compensation for polygonal and motor tolerances using galvo control profiles
US20230305160A1 (en) Multimodal detection with integrated sensors
US20230305161A1 (en) Real-time monitoring dc offset of adc data of lidar system
US11768294B2 (en) Compact lidar systems for vehicle contour fitting
US20230341532A1 (en) Dynamic calibration method of avalanche photodiodes on lidar
US20240168206A1 (en) Systems and methods for polygon mirror angles adjustment
US20240103138A1 (en) Stray light filter structures for lidar detector array

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221129