WO2020218283A1 - ToFカメラ、車両用灯具、自動車 - Google Patents

ToFカメラ、車両用灯具、自動車 Download PDF

Info

Publication number
WO2020218283A1
WO2020218283A1 PCT/JP2020/017167 JP2020017167W WO2020218283A1 WO 2020218283 A1 WO2020218283 A1 WO 2020218283A1 JP 2020017167 W JP2020017167 W JP 2020017167W WO 2020218283 A1 WO2020218283 A1 WO 2020218283A1
Authority
WO
WIPO (PCT)
Prior art keywords
tof camera
distance
light
irradiation light
calculation unit
Prior art date
Application number
PCT/JP2020/017167
Other languages
English (en)
French (fr)
Inventor
晃志 伊多波
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2021516127A priority Critical patent/JPWO2020218283A1/ja
Priority to CN202080030777.6A priority patent/CN113728246A/zh
Publication of WO2020218283A1 publication Critical patent/WO2020218283A1/ja
Priority to US17/451,513 priority patent/US20220035039A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Definitions

  • the present invention relates to a ToF (Time of Flight) camera.
  • ToF Time of Flight
  • An object identification system that senses the position and type of objects existing around the vehicle is used for automatic driving and automatic control of the light distribution of headlamps.
  • the object identification system includes a sensor and an arithmetic processing unit that analyzes the output of the sensor.
  • the sensor is selected from cameras, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), millimeter-wave radar, ultrasonic sonar, etc. in consideration of application, required accuracy, and cost.
  • Depth information cannot be obtained from a general monocular camera. Therefore, when a plurality of objects located at different distances overlap, it is difficult to separate them.
  • a ToF camera is known as a camera that can obtain depth information.
  • a ToF camera projects infrared light with a light emitting device, measures the flight time (delay time) ⁇ until the reflected light returns to the image sensor, and obtains an image obtained by converting the flight time ⁇ into distance information. Is.
  • the distance d to the object is expressed by the equation (1).
  • d c ⁇ / 2 ...
  • c is the speed of light.
  • the method of ToF camera is roughly divided into direct type and indirect type.
  • the direct type is a method of directly measuring the delay time d, and a high-speed TDC (Time To Digital Converter) is used.
  • the direct type requires a high-frequency device having a high-speed clock in order to obtain high resolution, and is difficult to adopt in a camera that generates an image containing a plurality of pixels.
  • FIG. 1 is a diagram for explaining the operating principle of the rectangular wave irradiation type ToF camera.
  • the ToF camera continuously performs two exposures (shooting) whose exposure time is equal to the pulse width tw of the irradiation light.
  • the portion of the pulse width tw of the reflected light that precedes the period t 1 is detected, and in the second exposure, the portion of the pulse width tw of the reflected light that follows the period t 2 is detected.
  • Received light amount detected by the first exposure the amount of charge Q 1
  • charge amount Q 2 the ratio of the amount of received light detected by the second exposure
  • t 1 tw x Q 1 / (Q 1 + Q 2 )
  • t 2 tw x Q 2 / (Q 1 + Q 2 ) Is established.
  • the delay time ⁇ is expressed by the equation (2).
  • the square wave irradiation type is based on the premise that the irradiation light is a perfect square wave, in other words, the intensity of the irradiation light is constant during the pulse irradiation period tw.
  • the present invention has been made in such a situation, and one of the exemplary purposes of the embodiment is to provide a ToF camera that allows waveform distortion of irradiation light.
  • a ToF camera is a light source that irradiates pulsed irradiation light whose intensity changes with time, an image sensor that measures reflected light from an object by two consecutive exposures, and an image obtained by the two exposures. It is provided with a calculation unit configured to generate a distance image by incorporating the waveform of the irradiation light based on the output of the sensor.
  • FIG. 5 (a) and 5 (b) are diagrams for explaining the calibration of the ToF camera.
  • a ToF camera is a light source that irradiates pulsed irradiation light whose intensity changes with time, an image sensor that measures reflected light from an object by two consecutive exposures, and an image obtained by the two exposures. It is provided with a calculation unit configured to generate a distance image by incorporating the waveform of the irradiation light based on the output of the sensor.
  • the accuracy of distance measurement can be improved when the irradiation light is not an ideal square wave. Therefore, the design of the light source can be facilitated and the cost of the light source can be reduced.
  • the calculation unit may generate a distance image by using a calculation formula defined based on the waveform of the irradiation light.
  • the calculation unit includes a distance calculation unit that calculates the distance when the intensity of the irradiation light is assumed to be constant, and a correction unit that corrects the distance calculated by the distance calculation unit based on the correction characteristics according to the waveform of the irradiation light. , May be provided.
  • the correction characteristics may be acquired by calibration.
  • FIG. 2 is a block diagram of the ToF camera 20 according to the embodiment.
  • the ToF camera 20 includes a light source 22, an image sensor 24, a controller 26, and a calculation unit 30.
  • the light source 22 irradiates the pulse-shaped irradiation light L1 whose intensity changes with time.
  • the image sensor 24 is a sensor suitable for a ToF camera, and measures the reflected light L2 from the object OBJ by two consecutive exposures.
  • the image sensor 24 has an array of a plurality of light receiving elements (hereinafter, also referred to as pixels), converts the light incident on the light receiving elements (pixels) into electric charges or currents for each of the two exposures, and converts the light into charges or currents. It is configured so that it can be integrated.
  • the reflected light L2 is incident on each pixel of the image sensor 24 at different timings (delay time ⁇ ).
  • the image sensor 24 generates two image data I 1 and I 2 corresponding to two exposures.
  • the pixel value of each pixel of the image data I 1 obtained in the first exposure represents the integrated value of the reflected light L2 incident on the pixel during the first exposure (that is, the integrated charge Q 1 ).
  • the pixel value of each pixel of the image data I 2 obtained in the second exposure represents the integrated value (integrated charge Q 2 ) of the reflected light L2 incident on the pixel during the second exposure.
  • the set of irradiation by the light source 22 and exposure by the image sensor 24 may be repeated a plurality of times in order to generate the distance image I 3 once.
  • the calculation unit 30 is configured to generate a distance image I 3 by incorporating the waveform of the irradiation light L1 based on the outputs I 1 and I 2 of the image sensor 24 obtained by the two exposures.
  • FIG. 3 is a diagram illustrating the operation of the ToF camera 20 of FIG. FIG. 3 shows the operation of one pixel.
  • the irradiation light L1 is attenuated with time during the irradiation period tw.
  • the reflected light L2 has the same waveform as the irradiation light L1.
  • the irradiation light L1 and the reflected light L2 are shown with the same intensity, but the reflected light L2 is actually attenuated more than the irradiation light L1.
  • the reflected light L2 In the first exposure, the reflected light L2, the amount of received light is detected in the front portion t 1, the pixel value Q 1 showing the integrated values are produced.
  • the pixel value Q 1 indicates an area S1 on the left side of the reflected light L2.
  • the reflected light L2 In the second exposure, the reflected light L2, the detection of the amount of light received at the rear portion t 2, the pixel value Q 2 to which indicating the integrated value is generated.
  • the pixel value Q 2 indicates the area S2 on the right side of the reflected light L2.
  • Waveform of the irradiation light L1 a known waveform of the reflected light L2 in other words, if the area S1, S2 are known, it is possible to obtain the time t 1, t 2. Then, based on the equations (1) and (2), the distance d to the object reflecting the reflected light incident on the pixel can be calculated.
  • the distance can be accurately measured during the irradiation period tw while allowing the intensity fluctuation of the irradiation light L1. Further, since the intensity fluctuation of the irradiation light L1 can be tolerated, the cost of the light source 22 can be reduced.
  • the calculation unit 30 calculates the distance by using the calculation formula defined based on the waveform of the irradiation light L1.
  • the intensity waveform of the irradiation light L1 and the reflected light L2 be I (t).
  • the areas S1 and S2 in FIG. 3 are represented by the following equations (3) and (4).
  • the calculation unit 30 can acquire t 1 from the measurement results Q1 and Q2.
  • the waveform I (t) is represented by the equation (5).
  • k is a coefficient representing the slope and has the dimension of the reciprocal of time.
  • equations (3) and (4) By substituting equation (2) into equations (3) and (4) for calculation, equations (6) and (7) are obtained.
  • Equation (8) can be obtained from equations (6) and (7), and when I 0 is eliminated, equation (9), which is a quadratic equation of t 1 , is obtained.
  • the distance d can be calculated from the equation (3).
  • FIG. 4 is a block diagram of the calculation unit 30 according to the third embodiment.
  • the calculation unit 30 includes a distance calculation unit 32 and a correction unit 34.
  • the distance calculation unit 32 receives the image data I 1 and the image data I 2 , and calculates the distance d of the pixels based on the pixel values Q 1 and Q 2 of the corresponding pixels.
  • the calculation of the distance d is performed on the assumption that the intensity of the irradiation light L1 is constant, and therefore is performed based on the equations (2) and (3).
  • the distance image I 4 generated by the distance calculation unit 32 is the same as the distance image of the prior art, and includes an error due to waveform distortion.
  • the correction unit 34 corrects the distance d calculated by the distance calculation unit 32 based on the correction characteristics according to the waveform of the irradiation light L1, and outputs the corrected distance image I 3 including the corrected distance dc.
  • the correction characteristics used in the correction unit 34 can be acquired by calibration.
  • 5 (a) and 5 (b) are diagrams for explaining the calibration of the ToF camera 20.
  • the output d of the distance calculation unit 32 is acquired while changing the actual distance x to the object.
  • FIG. 5A is a diagram showing the relationship between the actual distance x and the calculated value d.
  • FIG. 5B is a diagram showing correction characteristics corresponding to the distortion characteristics of FIG. 5A.
  • the correction characteristic is the inverse function f -1 (x) of the function f (x).
  • x f -1 (d)
  • This correction characteristic is converted into a polynomial approximation or a table and stored in the correction unit 34.
  • the correction unit 34 generates a corrected distance d c indicating a correct distance x based on the correction characteristics.
  • d c f -1 (d)
  • the corrected distance d c coincides with the actual distance x.
  • the correction characteristics may be calculated by simulation without being acquired by calibration.
  • the waveform of the irradiation light S1 is represented by a simple function I (t)
  • the correction characteristic may be obtained from the function I (t) and held in the correction unit 34.
  • FIG. 6 is a block diagram of an object identification system 400 including a ToF camera 410.
  • the object identification system 400 includes a ToF camera 410 and an arithmetic processing unit 420.
  • the ToF camera 410 is the above-mentioned ToF camera 20 and generates a distance image I 3 .
  • the arithmetic processing unit 420 can include a classifier 422.
  • the arithmetic processing unit 420 can be implemented by combining a processor (hardware) such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a microcomputer, and a software program executed by the processor (hardware).
  • the arithmetic processing unit 420 may be a combination of a plurality of processors. Alternatively, the arithmetic processing unit 420 may be configured only by hardware.
  • the classifier 422 is implemented based on the prediction model generated by machine learning, and discriminates the type (category, class) of the object included in the input image.
  • the algorithm of the classifier 422 is not particularly limited, but YOLO (You Only Look Once), SSD (Single Shot MultiBox Detector), R-CNN (Region-based Convolutional Neural Network), SPPnet (Spatial Pyramid Pooling), Faster R-CNN. , DSSD (Deconvolution-SSD), Mask R-CNN, etc. can be adopted, or algorithms developed in the future can be adopted.
  • the arithmetic processing unit 420 and the arithmetic unit 30 of the ToF camera 410 may be mounted on the same processor or the same FPGA.
  • the output of the object identification system 400 may be used for light distribution control of vehicle lighting equipment, or may be transmitted to the vehicle side ECU and used for automatic driving control.
  • FIG. 7 is a diagram showing an automobile 300 equipped with an object identification system 400.
  • the automobile 300 includes headlights 302L and 302R.
  • a part or all of the object identification system 400 is built in at least one of the headlights 302L and 302R.
  • the headlight 302 is located at the most tip of the vehicle body, and is the most advantageous place for installing the ToF camera 20 in detecting surrounding objects.
  • FIG. 8 is a block diagram showing a vehicle lamp 200 including an object detection system 210.
  • the vehicle lamp 200 constitutes the lamp system 310 together with the vehicle side ECU 304.
  • the vehicle lamp 200 includes a light source 202, a lighting circuit 204, and an optical system 206. Further, the vehicle lamp 200 is provided with an object detection system 210.
  • the object detection system 210 corresponds to the above-mentioned object identification system 400, and includes a ToF camera 20 and an arithmetic processing unit 40.
  • the information about the object OBJ detected by the arithmetic processing unit 40 may be used for the light distribution control of the vehicle lamp 200.
  • the lamp side ECU 208 generates an appropriate light distribution pattern based on the information regarding the type of the object OBJ generated by the arithmetic processing unit 40 and its position.
  • the lighting circuit 204 and the optical system 206 operate so as to obtain the light distribution pattern generated by the lamp side ECU 208.
  • the information about the object OBJ detected by the arithmetic processing unit 40 may be transmitted to the vehicle side ECU 304.
  • the vehicle-side ECU may perform automatic driving based on this information.
  • the function of the arithmetic processing unit 40 for object detection may be implemented in the vehicle-side ECU 304.
  • the light source 22 of the ToF camera 20 When the light source 22 of the ToF camera 20 is built in the vehicle lighting equipment as shown in FIGS. 7 and 8, the light source 22 is customized to fit the vehicle lighting equipment or is designed from scratch. In this case, the waveform distortion of the irradiation light L1 generated by the light source 22 can be allowed by implementing the correction of the waveform distortion in the calculation unit 30 in the subsequent stage. Therefore, the specifications required for the light source 22 can be significantly relaxed, and the cost can be reduced.
  • the present invention relates to a ToF (Time of Flight) camera.
  • ToF Time of Flight

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

光源22は、時間的に強度が変化するパルス状の照射光L1を照射する。イメージセンサ24は、連続する2回の露光によって、物体からの反射光L2を測定する。演算部30は、2回の露光により得られるイメージセンサ24の出力I,Iにもとづいて、照射光L1の波形を織り込んで、距離画像Iを生成する

Description

ToFカメラ、車両用灯具、自動車
 本発明は、ToF(Time of Flight)カメラに関する。
 自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする物体識別システムが利用される。物体識別システムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
一般的な単眼のカメラからは、奥行きの情報を得ることができない。したがって、異なる距離に位置する複数の物体が重なっている場合に、それらを分離することが難しい。
 奥行き情報が得られるカメラとして、ToFカメラが知られている。ToFカメラは、発光デバイスによって赤外光を投光し、反射光がイメージセンサに戻ってくるまでの飛行時間(遅延時間)τを測定し、飛行時間τを距離情報に変換した画像を得るものである。物体までの距離dは、式(1)で表される。
 d=cτ/2   …(1)
 cは光速である。
 ToFカメラの方式は、直接型と間接型に大別される。直接型は、遅延時間dを直接測定する方法であり、高速なTDC(Time To Digital Converter)が利用される。直接型は、高い分解能を得るために、高速なクロックを有する高周波デバイスが必要であり、複数のピクセルを含む画像を生成するカメラに採用することは難しい。
 したがって現在、ToFカメラでは、間接型が主流となっている。間接型ToFカメラの一方式として、矩形波照射型がある。図1は、矩形波照射型ToFカメラの動作原理を説明する図である。ToFカメラは、矩形波の照射光を物体に照射する。この照射光が、距離d離れた物体により反射され、τ=2d/c経過後に、反射光がToFカメラに入射する。
 ToFカメラは、露光時間が照射光のパルス幅twと等しい2露光(撮影)を連続して回行う。
 1回目の露光で、反射光のパルス幅twのうち、先行する期間tの部分が検出され、2回目の露光で、反射光のパルス幅twのうち、後続する期間tの部分が検出される。1回目の露光で検出した受光量(電荷量Q)と、2回目の露光で検出した受光量(電荷量Q)の比は、期間tとtに比例する。したがって、
 t=tw×Q/(Q+Q
 t=tw×Q/(Q+Q
が成り立つ。
 照射光の発光からtd遅れて1回目の露光を開始する場合、遅延時間τは、式(2)で表される。
 τ=td+t=td+tw×Q/(Q+Q
 式(2)で得られる遅延時間を式(1)に代入すれば、物体までの距離dが得られる。
 本発明者は、矩形波照射型のToFカメラについて検討した結果、以下の課題を認識するに至った。矩形波照射型は、照射光が完全な矩形波であることを、言い換えれば、パルスの照射期間twの間、照射光の強度が一定であることを前提としている。しかしながら、時間的に均一な矩形波の照射光を生成することは容易ではなく、それを実現しようとすると光源の設計が難しくなり、コストが高くなる。
 本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、照射光の波形歪みを許容するToFカメラの提供にある。
 本発明のある態様は、ToFカメラに関する。ToFカメラは、時間的に強度が変化するパルス状の照射光を照射する光源と、連続する2回の露光によって、物体からの反射光を測定するイメージセンサと、2回の露光により得られるイメージセンサの出力にもとづいて、照射光の波形を織り込んで、距離画像を生成するよう構成される演算部と、を備える。
 本発明によれば、照射光の波形歪みを許容するToFカメラを提供できる。
矩形波照射型ToFカメラの動作原理を説明する図である。 実施の形態に係るToFカメラのブロック図である。 図2のToFカメラの動作を説明する図である。 実施例3に係る演算部のブロック図である。 図5(a)、(b)は、ToFカメラのキャリブレーションを説明する図である。 ToFカメラを備える物体識別システムのブロック図である。 物体識別システムを備える自動車を示す図である。 物体検出システムを備える車両用灯具を示すブロック図である。
(実施の形態の概要)
 本明細書に開示される一実施の形態は、ToFカメラに関する。ToFカメラは、時間的に強度が変化するパルス状の照射光を照射する光源と、連続する2回の露光によって、物体からの反射光を測定するイメージセンサと、2回の露光により得られるイメージセンサの出力にもとづいて、照射光の波形を織り込んで、距離画像を生成するよう構成される演算部と、を備える。
 この実施の形態によれば、照射光が理想的な矩形波でない場合に、測距の精度を高めることができる。したがって光源の設計を容易化でき、光源のコストを下げることができる。
 演算部は、照射光の波形にもとづいて規定される演算式を利用して、距離画像を生成してもよい。
 演算部は、照射光の強度が一定と仮定したときの距離を算出する距離算出部と、距離算出部が算出した距離を、照射光の波形に応じた補正特性にもとづいて補正する補正部と、を備えてもよい。
 補正特性は、キャリブレーションによって取得されてもよい。
(実施の形態)
 以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
 図2は、実施の形態に係るToFカメラ20のブロック図である。ToFカメラ20は、光源22、イメージセンサ24、コントローラ26、演算部30を備える。
 光源22は、時間的に強度が変化するパルス状の照射光L1を照射する。イメージセンサ24は、ToFカメラに適したセンサであり、連続する2回の露光によって、物体OBJからの反射光L2を測定する。イメージセンサ24は、複数の受光素子(以下、画素ともいう)のアレイを有し、受光素子(画素)に入射光した光を、2回の露光それぞれについて、電荷あるいは電流に変換し、それを積算可能に構成される。イメージセンサ24の各画素には、異なるタイミング(遅延時間τ)で、反射光L2が入射する。イメージセンサ24は、2回の露光に対応する2枚の画像データI,Iを生成する。1回目の露光で得られる画像データIの各画素の画素値は、1回目の露光中にその画素に入射した反射光L2の積算値(つまり積算電荷Q)を表す。同様に2回目の露光で得られる画像データIの各画素の画素値は、2回目の露光中にその画素に入射した反射光L2の積算値(積算電荷Q)を表す。
 なお、1回の距離画像Iの生成のために、光源22による照射と、イメージセンサ24による露光のセットを、複数回繰り返してもよい。
 演算部30は、2回の露光により得られるイメージセンサ24の出力I,Iにもとづいて、照射光L1の波形を織り込んで距離画像Iを生成するよう構成される。
 以上がToFカメラ20の構成である。続いてその動作を説明する。図3は、図2のToFカメラ20の動作を説明する図である。図3は、ひとつの画素の動作を示す。この例では、照射光L1は、照射期間twの間、時間とともに減衰する。反射および伝搬による波形の乱れがないものとすると、反射光L2は、照射光L1と同じ波形を有する。図3では、照射光L1と反射光L2を同じ強度で示すが、実際には反射光L2は照射光L1よりも減衰している。
 1回目の露光では、反射光L2のうち、前側の部分tにおける受光量が検出され、積算値を示す画素値Qが生成される。この画素値Qは、反射光L2の左側の面積S1を示す。
 2回目の露光では、反射光L2のうち、後ろの部分tにおける受光量の検出され、積算値を示す画素値Qが生成される。この画素値Qは、反射光L2の右側の面積S2を示す。
 照射光L1の波形、言い換えれば反射光L2の波形が既知であり、面積S1,S2が既知であれば、時間t,tを取得することができる。そして、式(1)および(2)にもとづいて、その画素に入射する反射光を反射した物体までの距離dを計算することができる。
 以上がToFカメラ20の動作である。このToFカメラ20によれば、照射期間twの間、照射光L1の強度変動を許容しつつも、正確に距離を測定することができる。また照射光L1の強度変動を許容できるため、光源22のコストを下げることができる。
 続いて、演算部30における処理をいくつかの実施例をもとに説明する。
(実施例1)
 実施例1において、演算部30は、照射光L1の波形にもとづいて規定される演算式を利用して、距離を算出する。
 照射光L1、ひいては反射光L2の強度波形をI(t)とする。なおパルスの立ち上がりのタイミングをt=0とする。このとき、図3の面積S1、S2は、以下の式(3)、(4)で表される。
Figure JPOXMLDOC01-appb-M000001
 I(t)が既知であり、twが定数であるとき、演算部30は、測定結果Q1,Q2から、tを取得することができる。
 たとえば照射光L1が、一定の傾きで変化する場合を考える。このとき、波形I(t)は式(5)で表される。ただし、kは傾きを表す係数であり、時間の逆数の次元を有する。
Figure JPOXMLDOC01-appb-M000002
 式(2)を式(3)、(4)に代入して計算すると、式(6)、(7)を得る。
Figure JPOXMLDOC01-appb-M000003
 式(6)と(7)から式(8)を得ることができ、さらにIを消去すると、tの2次方程式である式(9)を得る。
Figure JPOXMLDOC01-appb-M000004
 2次方程式を解くと式(10)を得る。
Figure JPOXMLDOC01-appb-M000005
 演算部30は、式(10)にもとづいて、時間tを計算することができる。tが求まれば、遅延時間τは、式(11)から計算できる。
 τ=td+t=td+tw-t   …(11)
 そして、距離dは式(3)から計算できる。
(実施例2)
 式(10)において、tw・Q/(Q1+Q)の項は、照射光L1が強度変動のない矩形波であると仮定したときの時間t’に他ならない。したがって、照射光L1の強度変動があるときの時間tは、強度変動がないと仮定したときの時間t’を補正した値として求めることも可能である。このときの補正式は式(12)で表される。ただし、t’=0のときにt=0としている。
Figure JPOXMLDOC01-appb-M000006
(実施例3)
 図4は、実施例3に係る演算部30のブロック図である。演算部30は、距離算出部32および補正部34を備える。距離算出部32は、画像データIと画像データIを受け、対応する各ピクセルの画素値Q,Qにもとづいて、そのピクセルの距離dを算出する。この距離dの算出は、照射光L1の強度が一定と仮定して行われ、したがって、式(2)および(3)にもとづいて行われる。距離算出部32において生成される距離画像Iは、従来技術の距離画像と同様であり、波形歪みに起因する誤差を含む。
 補正部34は、距離算出部32が算出した距離dを、照射光L1の波形に応じた補正特性にもとづいて補正し、補正後の距離dcを含む補正後の距離画像Iを出力する。
 たとえば、補正部34において使用する補正特性は、キャリブレーションによって取得することができる。図5(a)、(b)は、ToFカメラ20のキャリブレーションを説明する図である。キャリブレーションは、物体までの実距離xを変化させながら、距離算出部32の出力dを取得する。図5(a)は、実距離xと、計算値dの関係を示す図である。波形が理想的であるとき、破線で示す直線d=xが得られるが、波形に歪みがあると、実線で示すように直線から逸脱する。このようにして歪み特性が得られる。
 図5(b)は、図5(a)の歪み特性に対応する補正特性を示す図である。図5(a)の歪み特性が、d=f(x)の関数で表されるとき、補正特性は関数f(x)の逆関数f-1(x)となる。
 x=f-1(d)
 この補正特性は、多項式近似あるいはテーブルに変換され、補正部34に格納される。補正部34は補正特性にもとづいて、正しい距離xを示す補正後の距離dを生成する。
 d=f-1(d)
 図5(c)に示すように、補正後の距離dは、実距離xと一致する。
 補正特性は、キャリブレーションによって取得せずに、シミュレーションによって計算してもよい。あるいは、照射光S1の波形が、簡単な関数I(t)で表される場合、補正特性を関数I(t)から求め、それを補正部34に保持してもよい。
(用途)
 ToFカメラ20の用途を説明する。図6は、ToFカメラ410を備える物体識別システム400のブロック図である。物体識別システム400は、ToFカメラ410と、演算処理装置420を備える。ToFカメラ410は、上述のToFカメラ20であり、距離画像Iを生成する。
 演算処理装置420は、距離画像Iにもとづいて、物体の位置および種類(カテゴリー、クラス)を識別可能に構成される。演算処理装置420は、分類器422を含むことができる。演算処理装置420は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置420は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置420はハードウェアのみで構成してもよい。
 分類器422は、機械学習によって生成された予測モデルにもとづいて実装され、入力された画像に含まれる物体の種類(カテゴリー、クラス)を判別する。分類器422のアルゴリズムは特に限定されないが、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどを採用することができ、あるいは、将来開発されるアルゴリズムを採用できる。演算処理装置420と、ToFカメラ410の演算部30は、同じプロセッサあるいは同じFPGAに実装してもよい。
 物体識別システム400の出力は、車両用灯具の配光制御に利用してもよいし、車両側ECUに送信して、自動運転制御に利用してもよい。
 図7は、物体識別システム400を備える自動車300を示す図である。自動車300は、前照灯302L,302Rを備える。物体識別システム400の一部、あるいは全部は、前照灯302L,302Rの少なくとも一方に内蔵される。前照灯302は、車体の最も先端に位置しており、周囲の物体を検出する上で、ToFカメラ20の設置箇所として最も有利である。
 図8は、物体検出システム210を備える車両用灯具200を示すブロック図である。車両用灯具200は、車両側ECU304とともに灯具システム310を構成する。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、物体検出システム210が設けられる。物体検出システム210は、上述の物体識別システム400に対応しており、ToFカメラ20、演算処理装置40を含む。
 演算処理装置40が検出した物体OBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具側ECU208は、演算処理装置40が生成する物体OBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具側ECU208が生成した配光パターンが得られるように動作する。
 また演算処理装置40が検出した物体OBJに関する情報は、車両側ECU304に送信してもよい。車両側ECUは、この情報にもとづいて、自動運転を行ってもよい。物体検出に演算処理装置40の機能は、車両側ECU304に実装してもよい。
 図7や図8のように、ToFカメラ20の光源22を車両用灯具に内蔵する場合、その光源22は、車両用灯具に適合するようにカスタマイズされ、あるいはゼロから設計されることとなる。この場合に、後段の演算部30に、波形歪みの補正を実装することにより、光源22が生成する照射光L1の波形歪みを許容することができる。したがって光源22に要求される仕様を大幅に緩和することができ、コストを下げることができる。
 実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
 本発明は、ToF(Time of Flight)カメラに関する。
 20 ToFカメラ
 22 光源
 24 イメージセンサ
 26 コントローラ
 30 演算部
 32 距離算出部
 34 補正部
 L1 照射光
 L2 反射光
 400 物体識別システム
 420 演算処理装置
 422 分類器
 200 車両用灯具
 202 光源
 204 点灯回路
 206 光学系
 300 自動車
 302 前照灯
 304 車両側ECU
 310 灯具システム

Claims (7)

  1.  時間的に強度が変化するパルス状の照射光を照射する光源と、
     連続する2回の露光によって、物体からの反射光を測定するイメージセンサと、
     前記2回の露光により得られるイメージセンサの出力にもとづいて、前記照射光の波形を織り込んで、距離画像を生成するよう構成される演算部と、
     を備えることを特徴とするToFカメラ。
  2.  前記演算部は、前記照射光の波形にもとづいて規定される演算式を利用して、前記距離画像を生成することを特徴とする請求項1に記載のToFカメラ。
  3.  前記演算部は、
     前記照射光の強度が一定と仮定したときの距離を算出する距離算出部と、
     前記距離算出部が算出した距離を、前記照射光の波形に応じた補正特性にもとづいて補正する補正部と、
     を備えることを特徴とする請求項1に記載のToFカメラ。
  4.  前記補正特性は、キャリブレーションによって取得されることを特徴とする請求項3に記載のToFカメラ。
  5.  請求項1から4のいずれかに記載のToFカメラを備えることを特徴とする車両用灯具。
  6.  請求項1から4のいずれかに記載のToFカメラを備えることを特徴とする自動車。
  7.  前記ToFカメラの前記光源は、車両用灯具に内蔵されることを特徴とする請求項6に記載の自動車。
PCT/JP2020/017167 2019-04-22 2020-04-21 ToFカメラ、車両用灯具、自動車 WO2020218283A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021516127A JPWO2020218283A1 (ja) 2019-04-22 2020-04-21
CN202080030777.6A CN113728246A (zh) 2019-04-22 2020-04-21 ToF照相机、车辆用灯具、汽车
US17/451,513 US20220035039A1 (en) 2019-04-22 2021-10-20 Tof camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019081025 2019-04-22
JP2019-081025 2019-04-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/451,513 Continuation US20220035039A1 (en) 2019-04-22 2021-10-20 Tof camera

Publications (1)

Publication Number Publication Date
WO2020218283A1 true WO2020218283A1 (ja) 2020-10-29

Family

ID=72942813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/017167 WO2020218283A1 (ja) 2019-04-22 2020-04-21 ToFカメラ、車両用灯具、自動車

Country Status (4)

Country Link
US (1) US20220035039A1 (ja)
JP (1) JPWO2020218283A1 (ja)
CN (1) CN113728246A (ja)
WO (1) WO2020218283A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184672A (ja) * 1994-12-28 1996-07-16 Fujitsu Ten Ltd 距離計測装置
JP2007170856A (ja) * 2005-12-19 2007-07-05 Denso Corp 距離データ生成方法、距離画像生成装置、光電センサ
JP2008105518A (ja) * 2006-10-25 2008-05-08 Calsonic Kansei Corp カメラ内蔵ランプ
JP2011149942A (ja) * 2010-01-21 2011-08-04 Samsung Electronics Co Ltd 距離情報抽出方法及び該方法を採用した光学装置
WO2017150246A1 (ja) * 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 撮像装置、及びそれに用いられる固体撮像素子

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542348B2 (en) * 2010-11-03 2013-09-24 Rockwell Automation Technologies, Inc. Color sensor insensitive to distance variations
JP2013195117A (ja) * 2012-03-16 2013-09-30 Ricoh Co Ltd 測距装置
WO2014208018A1 (ja) * 2013-06-26 2014-12-31 パナソニックIpマネジメント株式会社 測距システム
WO2015075926A1 (ja) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 測距撮像システム
EP2955544B1 (en) * 2014-06-11 2020-06-17 Sony Depthsensing Solutions N.V. A TOF camera system and a method for measuring a distance with the system
JP6507529B2 (ja) * 2014-08-29 2019-05-08 株式会社デンソー 光飛行型測距装置
JP6764863B2 (ja) * 2015-07-03 2020-10-07 パナソニックセミコンダクターソリューションズ株式会社 距離測定装置
JP2017053769A (ja) * 2015-09-10 2017-03-16 株式会社村田製作所 距離センサ
US10416296B2 (en) * 2016-10-19 2019-09-17 Infineon Technologies Ag 3DI sensor depth calibration concept using difference frequency approach

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184672A (ja) * 1994-12-28 1996-07-16 Fujitsu Ten Ltd 距離計測装置
JP2007170856A (ja) * 2005-12-19 2007-07-05 Denso Corp 距離データ生成方法、距離画像生成装置、光電センサ
JP2008105518A (ja) * 2006-10-25 2008-05-08 Calsonic Kansei Corp カメラ内蔵ランプ
JP2011149942A (ja) * 2010-01-21 2011-08-04 Samsung Electronics Co Ltd 距離情報抽出方法及び該方法を採用した光学装置
WO2017150246A1 (ja) * 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 撮像装置、及びそれに用いられる固体撮像素子

Also Published As

Publication number Publication date
US20220035039A1 (en) 2022-02-03
CN113728246A (zh) 2021-11-30
JPWO2020218283A1 (ja) 2020-10-29

Similar Documents

Publication Publication Date Title
CN109959942B (zh) 距离测量设备、识别设备和距离测量方法
JP6286677B2 (ja) 測距システム、及び撮像センサ
WO2014097539A1 (ja) 3次元測定装置および3次元測定方法
WO2020009011A1 (ja) 光測距装置
US20230179841A1 (en) Gating camera
WO2020149140A1 (ja) 車載用イメージング装置、車両用灯具、自動車
EP3961261A1 (en) Imaging device, vehicle light, automobile, and imaging method
CN111398975B (zh) 主动传感器、物体识别系统、车辆、车辆用灯具
WO2016031666A1 (ja) 視線検出装置
WO2021201269A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2020218283A1 (ja) ToFカメラ、車両用灯具、自動車
JP7167708B2 (ja) 距離情報生成装置
US11353564B2 (en) Disturbance light identifying apparatus, disturbance light separating apparatus, disturbance light identifying method, and disturbance light separating method
JPWO2020066236A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
WO2022145261A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2021060397A1 (ja) ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法
JP7259660B2 (ja) イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム
JP6912449B2 (ja) 測距装置を有する物体監視システム
WO2023224077A1 (ja) ToFカメラ、車両用センシングシステム、および車両用灯具
US12003839B2 (en) Imaging apparatus using ghost imaging
JP7474759B2 (ja) 車両用灯具
WO2021015208A1 (ja) アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
WO2022172690A1 (ja) 濃淡画像生成装置および濃淡画像補正方法、濃淡画像補正プログラム
WO2022014416A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
JP7395511B2 (ja) イメージング装置、その演算処理装置、車両用灯具、車両、センシング方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20796346

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021516127

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20796346

Country of ref document: EP

Kind code of ref document: A1