JP2018185179A - Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance - Google Patents

Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance Download PDF

Info

Publication number
JP2018185179A
JP2018185179A JP2017085819A JP2017085819A JP2018185179A JP 2018185179 A JP2018185179 A JP 2018185179A JP 2017085819 A JP2017085819 A JP 2017085819A JP 2017085819 A JP2017085819 A JP 2017085819A JP 2018185179 A JP2018185179 A JP 2018185179A
Authority
JP
Japan
Prior art keywords
distance
charge
light
distance measuring
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017085819A
Other languages
Japanese (ja)
Inventor
周 高橋
Shu Takahashi
周 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017085819A priority Critical patent/JP2018185179A/en
Publication of JP2018185179A publication Critical patent/JP2018185179A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance measuring device which can increase the distance resolution in a desired distance range while suppressing reduction in the frame rate.SOLUTION: A distance measuring sensor 20 (distance measuring device) includes: a light source 21; an imaging sensor 29 (imaging element) for receiving light emitted from the light source 21 and reflected from an object and photoelectrically converting the light; a synchronization control unit 204 for controlling the exposure period for the image sensor 29 to the emission initiation timing of the light source 21 and causing the image sensor 29 to acquire electric signals (light receiving signals) generated by the photoelectric conversion during the exposure period divided into a plurality of phase signals; and an imaging processing unit 203 for calculating the distance to an object in the distance measuring range corresponding to the exposure period on the basis of the plurality of phase signals.SELECTED DRAWING: Figure 8

Description

本発明は、測距装置、監視装置、3次元計測装置、移動体、ロボット及び測距方法に関する。   The present invention relates to a distance measuring device, a monitoring device, a three-dimensional measuring device, a moving body, a robot, and a distance measuring method.

近年、物体までの距離を測定するための測距技術の開発が盛んに行われている。   2. Description of the Related Art In recent years, a distance measuring technique for measuring a distance to an object has been actively developed.

例えば、特許文献1及び非特許文献1には、光源から射出され物体で反射された光を撮像素子で受光し、光源の発光タイミングと撮像素子の受光タイミングとの時間差に基づいて物体までの距離を求める、いわゆるTOF(Time of Flight)演算方式を用いた測距技術が開示されている。   For example, in Patent Document 1 and Non-Patent Document 1, light emitted from a light source and reflected by an object is received by an image sensor, and the distance to the object is based on a time difference between the light emission timing of the light source and the light reception timing of the image sensor. Ranging technology using a so-called TOF (Time of Flight) calculation method is calculated.

しかしながら、特許文献1及び非特許文献1に開示されている測距技術では、フレームレートの低下を抑制しつつ所望の距離範囲において距離分解能を向上させることに関して改善の余地があった。   However, the distance measurement techniques disclosed in Patent Document 1 and Non-Patent Document 1 have room for improvement in terms of improving distance resolution in a desired distance range while suppressing a decrease in frame rate.

本発明は、光源と、前記光源から射出され物体で反射された光を受光して光電変換する受光領域と、前記光電変換により生じた電荷を蓄積するための複数の電荷蓄積領域から成る電荷蓄積領域群と、前記電荷を排出するための電荷排出領域とを有する撮像素子と、前記電荷の送り先を前記電荷排出領域と前記電荷蓄積領域群との間で切り替えることにより、前記光源の発光開始タイミングに対して前記電荷蓄積領域群へ前記電荷を送る期間を制御し、前記期間内の異なる複数の時間帯それぞれに生じた前記電荷を前記複数の電荷蓄積領域のいずれかへ送る制御部と、前記複数の電荷蓄積領域の電荷蓄積量に基づいて、前記期間に対応する距離範囲に存在する前記物体までの距離を算出する演算部と、を備える測距装置である。   The present invention relates to a charge storage comprising a light source, a light receiving region for receiving and photoelectrically converting light emitted from the light source and reflected by an object, and a plurality of charge storage regions for storing charges generated by the photoelectric conversion. An image pickup device having a region group and a charge discharge region for discharging the charge, and a light emission start timing of the light source by switching the charge destination between the charge discharge region and the charge storage region group Controlling a period for sending the charge to the charge accumulation region group, and sending the charge generated in each of a plurality of different time zones in the period to any of the plurality of charge accumulation regions, And a calculation unit that calculates a distance to the object existing in a distance range corresponding to the period based on charge accumulation amounts of a plurality of charge accumulation regions.

本発明によれば、フレームレートの低下を抑制しつつ所望の距離範囲において距離分解能を向上させることができる。   According to the present invention, it is possible to improve distance resolution in a desired distance range while suppressing a decrease in frame rate.

本発明の一実施形態に係る距離センサを搭載した走行体の外観図である。It is an external view of the traveling body carrying the distance sensor which concerns on one Embodiment of this invention. 走行管理装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of a driving | running | working management apparatus. 距離センサの構成を説明するための図である。It is a figure for demonstrating the structure of a distance sensor. 投光系を説明するための図である。It is a figure for demonstrating a light projection system. 発光制御信号を説明するための図である。It is a figure for demonstrating the light emission control signal. 光源駆動信号を説明するための図である。It is a figure for demonstrating a light source drive signal. 受光系を説明するための図である。It is a figure for demonstrating a light-receiving system. 距離センサにおける信号の流れを示す図である。It is a figure which shows the flow of the signal in a distance sensor. 音声・警報発生装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of an audio | voice / alarm generator. イメージセンサの画素構造の一例を示す図である。It is a figure which shows an example of the pixel structure of an image sensor. 光源の発光期間と撮像素子の露光期間(電荷蓄積期間)を示すタイミング図である。FIG. 6 is a timing diagram illustrating a light emission period and an exposure period (charge accumulation period) of an image sensor. 露光期間に対応する距離範囲のイメージ図である。It is an image figure of the distance range corresponding to an exposure period. Tdの算出方法を説明するための図である。It is a figure for demonstrating the calculation method of Td. 複数の距離範囲に対応する複数のスライス画像を取得するフレーム構成例を示す図である。It is a figure which shows the example of a flame | frame structure which acquires several slice images corresponding to several distance ranges. 複数のスライス画像を取得する際の発光制御信号、TXD信号を示すタイミング図(その1)である。FIG. 10 is a timing diagram (part 1) illustrating a light emission control signal and a TXD signal when acquiring a plurality of slice images. 複数のスライス画像と複数の露光期間の対応関係を示す図である。It is a figure which shows the correspondence of several slice images and several exposure periods. 複数のスライス画像を取得する際の発光制御信号、TXD信号を示すタイミング図(その2)である。FIG. 10 is a timing diagram (part 2) illustrating a light emission control signal and a TXD signal when acquiring a plurality of slice images. 複数のスライス画像を取得する際の発光制御信号、TXD信号を示すタイミング図(その3)である。FIG. 12 is a timing diagram (part 3) illustrating a light emission control signal and a TXD signal when acquiring a plurality of slice images.

以下、本発明の一実施形態を図面に基づいて説明する。図1には、一実施形態の測距装置としての距離センサ20を搭載した走行体1の外観が示されている。この走行体1は、荷物を目的地に無人搬送するものである。なお、本明細書では、XYZ3次元直交座標系において、路面に直交する方向をZ軸方向、走行体1の前進方向を+X方向として説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows the appearance of a traveling body 1 equipped with a distance sensor 20 as a distance measuring device according to an embodiment. The traveling body 1 is for unattended transport of luggage to a destination. In the present specification, in the XYZ three-dimensional orthogonal coordinate system, the direction orthogonal to the road surface is described as the Z-axis direction, and the forward direction of the traveling body 1 is described as the + X direction.

ここでは、距離センサ20は、一例として、走行体1の前部に取り付けられ、走行体1の+X側(前方)の3次元情報を求める。なお、距離センサ20による測定可能な領域を測定領域ともいう。   Here, as an example, the distance sensor 20 is attached to the front portion of the traveling body 1 and obtains three-dimensional information on the + X side (front) of the traveling body 1. Note that an area measurable by the distance sensor 20 is also referred to as a measurement area.

走行体1の内部には、一例として図2に示されるように、表示装置30、位置制御装置40、メモリ50、及び音声・警報発生装置60などが備えられている。これらは、データの伝送が可能なバス70を介して電気的に接続されている。   As shown in FIG. 2 as an example, the traveling body 1 includes a display device 30, a position control device 40, a memory 50, a voice / alarm generating device 60, and the like. These are electrically connected via a bus 70 capable of transmitting data.

ここでは、距離センサ20と、表示装置30と、位置制御装置40と、メモリ50と、音声・警報発生装置60とによって、走行管理装置10が構成されている。すなわち、走行管理装置10は、走行体1に搭載されている。また、走行管理装置10は、走行体1のメインコントローラ80と電気的に接続されている。   Here, the travel management device 10 is configured by the distance sensor 20, the display device 30, the position control device 40, the memory 50, and the voice / alarm generation device 60. That is, the traveling management device 10 is mounted on the traveling body 1. The travel management device 10 is electrically connected to the main controller 80 of the traveling body 1.

距離センサ20は、一例として図3に示されるように、投光系201、受光系202、画像処理部203、同期制御部204などを有している。そして、これらは、筐体内に収納されている。この筐体は、投光系201から投光される光、及び物体で反射され、受光系202に向かう光が通過するための窓を有し、該窓にはガラスが取り付けられている。   As shown in FIG. 3 as an example, the distance sensor 20 includes a light projecting system 201, a light receiving system 202, an image processing unit 203, a synchronization control unit 204, and the like. And these are accommodated in the housing | casing. This housing has a window through which light projected from the light projecting system 201 and light reflected by an object and directed toward the light receiving system 202 pass, and glass is attached to the window.

投光系201は、受光系202の−Z側に配置されている。この投光系201は、一例として図4に示されるように、光源21及び光源駆動部25などを有している。   The light projecting system 201 is disposed on the −Z side of the light receiving system 202. As shown in FIG. 4 as an example, the light projecting system 201 includes a light source 21 and a light source driving unit 25.

光源21は、光源駆動部25によって点灯及び消灯される。ここでは、光源21としてLED(発光ダイオード)が用いられているが、これに限らず、例えば半導体レーザ(端面発光レーザや面発光レーザ)等の他の光源を用いても良い。光源21は、+X方向に光を射出するように配置されている。なお、以下では、光源駆動部25で生成され、光源21を駆動するための信号を「光源駆動信号」と呼ぶ。   The light source 21 is turned on and off by the light source driving unit 25. Here, an LED (light emitting diode) is used as the light source 21, but the present invention is not limited to this, and other light sources such as a semiconductor laser (an edge emitting laser or a surface emitting laser) may be used. The light source 21 is disposed so as to emit light in the + X direction. Hereinafter, a signal generated by the light source driving unit 25 and driving the light source 21 is referred to as a “light source driving signal”.

光源駆動部25は、同期制御部204からの発光制御信号(例えばパルス幅T、パルス周期Tのパルス信号、図5参照)に基づいて、光源駆動信号(図6参照)を生成する。この光源駆動信号は、光源21に送出される。 The light source drive unit 25 generates a light source drive signal (see FIG. 6) based on the light emission control signal from the synchronization control unit 204 (for example, a pulse signal having a pulse width T 0 and a pulse period T 1 , see FIG. 5). This light source drive signal is sent to the light source 21.

これにより、光源21からは、同期制御部204から指示されたパルス幅、パルス周期のパルス光が射出される。なお、光源21から射出されるパルス光は、デューティ(duty)が50%以下となるように、同期制御部204において設定されている。また、以下では、光源21から射出されるパルス光を「投光波」や「投光パルス」とも呼ぶ。   As a result, the light source 21 emits pulsed light having a pulse width and a pulse period instructed from the synchronization control unit 204. The pulse light emitted from the light source 21 is set in the synchronization control unit 204 so that the duty is 50% or less. Hereinafter, the pulsed light emitted from the light source 21 is also referred to as a “projection wave” or a “projection pulse”.

走行体1のメインコントローラ80は、走行体1を走行させる際に、位置制御の開始要求を位置制御装置40に送出する。そして、走行体1のメインコントローラ80は、走行体1が目的位置に到達すると、位置制御の終了要求を位置制御装置40に送出する。   When the traveling body 1 travels, the main controller 80 of the traveling body 1 sends a position control start request to the position control device 40. Then, when the traveling body 1 reaches the target position, the main controller 80 of the traveling body 1 sends a position control end request to the position control device 40.

位置制御装置40は、位置制御の開始要求、及び位置制御の終了要求を受け取ると、画像処理部203に送出する。   When the position control device 40 receives a position control start request and a position control end request, the position control device 40 sends them to the image processing unit 203.

距離センサ20から射出され物体で反射された光の一部は、距離センサ20に戻ってくる。以下では、便宜上、物体で反射され距離センサ20に戻ってくる光を「物体からの反射光」もしくは「反射光」ともいう。   Part of the light emitted from the distance sensor 20 and reflected by the object returns to the distance sensor 20. Hereinafter, for convenience, the light reflected by the object and returning to the distance sensor 20 is also referred to as “reflected light from the object” or “reflected light”.

受光系202は、物体からの反射光を検出する。受光系202は、一例として図7に示されるように、結像光学系28及びイメージセンサ29などを有している。   The light receiving system 202 detects reflected light from the object. As shown in FIG. 7 as an example, the light receiving system 202 includes an imaging optical system 28, an image sensor 29, and the like.

結像光学系28は、物体からの反射光の光路上に配置され、該光を集光する。ここでは、結像光学系28は1枚のレンズで構成されているが、2枚のレンズで構成されても良いし、3枚以上のレンズで構成されても良いし、ミラー光学系を用いても良い。   The imaging optical system 28 is disposed on the optical path of the reflected light from the object and collects the light. Here, the imaging optical system 28 is composed of one lens, but it may be composed of two lenses, may be composed of three or more lenses, or uses a mirror optical system. May be.

イメージセンサ29は、結像光学系28を介して物体からの反射光を受光する。ここでは、イメージセンサ29として、複数の受光部(例えばPD:フォトダイオード)が2次元配列されたエリアイメージセンサが用いられている。以下では、イメージセンサ29で受光される物体からの反射光を「受光波」や「受光パルス」とも呼ぶ。イメージセンサ29の「受光部」は「画素」とも呼ばれる。   The image sensor 29 receives reflected light from the object via the imaging optical system 28. Here, as the image sensor 29, an area image sensor in which a plurality of light receiving portions (for example, PD: photodiode) is two-dimensionally arranged is used. Hereinafter, the reflected light from the object received by the image sensor 29 is also referred to as “received wave” or “received pulse”. The “light receiving part” of the image sensor 29 is also called “pixel”.

イメージセンサ29は、複数の画素で受光した光を画素毎に光電変換し、その電気信号(受光信号)を時間的に分割し、時間毎の複数の信号(位相信号)に振り分ける。   The image sensor 29 photoelectrically converts light received by a plurality of pixels for each pixel, temporally divides the electric signal (light reception signal), and distributes the signal to a plurality of signals (phase signals) for each time.

詳述すると、イメージセンサ29は、受光部毎に電荷蓄積領域としてのFD1、FD2、FD3(図10参照)を有しており、図8に示されるTXD信号がハイ(high)のときは電荷の蓄積を行わず、TXD信号がロー(low)のときに電荷の蓄積を行う。「FD」は、フローティングディフュージョンの略語である。
より詳細には、TXD信号がハイからローになったときにTX1信号がローからハイになり、TX1信号がハイからローになったときにTX2信号がローからハイになり、TX2信号がハイからローになったときにTX3信号がローからハイになり、TX3信号がハイからローになったときにTXD信号がローからハイになる(図11参照)。
TX1信号がハイの期間中、受光部で光電変換により生じた信号電荷がFD1に蓄積される。
TX2信号がハイの期間中、受光部で光電変換により生じた信号電荷がFD2に蓄積される。
TX3信号がハイの期間中、受光部で光電変換により生じた信号電荷がFD3に蓄積される。
TXD信号がローからハイになったときに、FD1、FD2、FD3に蓄積された信号電荷の読み出し、リセットが行われる。
以上の説明から分かるように、TX1信号、TX2信号、TX3信号は、受光信号を時間的に3つに分割して取得するための信号である。
More specifically, the image sensor 29 has FD1, FD2, and FD3 (see FIG. 10) as charge storage regions for each light receiving unit, and when the TXD signal shown in FIG. 8 is high, the charge is charged. Charge accumulation is performed when the TXD signal is low. “FD” is an abbreviation for floating diffusion.
More specifically, when the TXD signal goes from high to low, the TX1 signal goes from low to high, when the TX1 signal goes from high to low, the TX2 signal goes from low to high, and the TX2 signal goes from high. When it goes low, the TX3 signal goes from low to high, and when the TX3 signal goes from high to low, the TXD signal goes from low to high (see FIG. 11).
During the period when the TX1 signal is high, signal charges generated by photoelectric conversion in the light receiving unit are accumulated in the FD1.
During the period in which the TX2 signal is high, the signal charge generated by the photoelectric conversion in the light receiving unit is accumulated in the FD2.
During the period when the TX3 signal is high, signal charges generated by photoelectric conversion in the light receiving unit are accumulated in the FD3.
When the TXD signal changes from low to high, signal charges stored in FD1, FD2, and FD3 are read and reset.
As can be seen from the above description, the TX1 signal, the TX2 signal, and the TX3 signal are signals that are obtained by dividing the received light signal into three in terms of time.

同期制御部204は、図8に示されるように、画像処理部203から測定開始信号を受信すると、各回の測定毎に、発光制御信号を光源駆動部25に出力するとともにTXD信号、TX1信号、TX2信号、TX3信号をイメージセンサ29に順次出力する。また、同期制御部204は、画像処理部203から測定終了信号を受信すると、上記各信号の出力を停止する。   As shown in FIG. 8, when receiving the measurement start signal from the image processing unit 203, the synchronization control unit 204 outputs a light emission control signal to the light source driving unit 25 for each measurement and transmits the TXD signal, the TX1 signal, The TX2 signal and the TX3 signal are sequentially output to the image sensor 29. When the synchronization control unit 204 receives a measurement end signal from the image processing unit 203, the synchronization control unit 204 stops outputting the signals.

画像処理部203は、イメージセンサ29で読み出された画素毎の複数の位相信号に基づいて(後に説明する関係式を用いて)、光源21の発光タイミング(投光波の出力タイミング)とイメージセンサ29の当該画素の受光タイミング(受光波の入力タイミング)との時間差を求め、該時間差から物体までの距離を算出して物体の3次元情報を示す距離画像(デプスマップ)を生成し、位置制御装置40に出力する。   Based on a plurality of phase signals for each pixel read by the image sensor 29 (using a relational expression described later), the image processing unit 203 determines the light emission timing (projected wave output timing) of the light source 21 and the image sensor. A time difference from the light reception timing (light reception wave input timing) of the corresponding 29 pixels is obtained, a distance to the object is calculated from the time difference, and a distance image (depth map) indicating the three-dimensional information of the object is generated to control the position. Output to the device 40.

詳述すると、画像処理部203は、後述するように測距レンジを分割して得られる複数の距離範囲に対応する複数の距離画像を統合して測距レンジ全域の距離画像を生成する。   More specifically, the image processing unit 203 integrates a plurality of distance images corresponding to a plurality of distance ranges obtained by dividing the distance measurement range, as will be described later, and generates a distance image of the entire distance measurement range.

なお、ここでは、画像処理部203が距離センサ20の構成要素とされているが、これに代えて、例えばPC等の外部機器に画像処理部203の機能を担わせても良い。   Here, the image processing unit 203 is a component of the distance sensor 20, but instead of this, for example, an external device such as a PC may have the function of the image processing unit 203.

図2に戻り、位置制御装置40は、画像処理部203から距離画像を受け取ると、該距離画像を表示装置30に表示する。また、位置制御装置40は、距離画像に基づいて、走行体1の位置が所定の位置となるように、位置制御を行う。   Returning to FIG. 2, when the position control device 40 receives a distance image from the image processing unit 203, the position control device 40 displays the distance image on the display device 30. Further, the position control device 40 performs position control based on the distance image so that the position of the traveling body 1 becomes a predetermined position.

音声・警報発生装置60は、一例として図9に示されるように、音声合成装置61、警報信号生成装置62及びスピーカ63などを有している。   As shown in FIG. 9 as an example, the voice / alarm generator 60 includes a voice synthesizer 61, an alarm signal generator 62, a speaker 63, and the like.

音声合成装置61は、複数の音声データを有しており、位置制御装置40から危険有りの情報を受け取ると、対応する音声データを選択し、スピーカ63に出力する。   The voice synthesizer 61 has a plurality of pieces of voice data. Upon receiving information that there is danger from the position controller 40, the voice synthesizer 61 selects corresponding voice data and outputs it to the speaker 63.

警報信号生成装置62は、位置制御装置40から危険有りの情報を受け取ると、対応する警報信号を生成し、スピーカ63に出力する。   When the warning signal generation device 62 receives information indicating that there is danger from the position control device 40, the warning signal generation device 62 generates a corresponding warning signal and outputs it to the speaker 63.

次に、イメージセンサ29の画素構造の一例について説明する。図10は、イメージセンサ29の1画素を平面視したときの断面図である。イメージセンサ29は、図10に示されるように、画素毎に、受光信号を時間的に振り分けるための3つのゲート構造と受光信号の振り分け期間(電荷蓄積期間)を制御するための1つのゲート構造を有している。
なお、ここでは、電荷蓄積領域としてFDを用いた画素構造とされているが、電荷蓄積領域としてコンデンサを用いた画素構造とすることも可能である。
Next, an example of the pixel structure of the image sensor 29 will be described. FIG. 10 is a cross-sectional view of one pixel of the image sensor 29 when viewed in plan. As shown in FIG. 10, the image sensor 29 includes three gate structures for temporally distributing the received light signal and one gate structure for controlling the distributed period (charge accumulation period) of the received light signal for each pixel. have.
Note that although a pixel structure using an FD is used as the charge storage region here, a pixel structure using a capacitor as the charge storage region may be used.

詳述すると、イメージセンサ29の各画素において、受光領域を形成し光電変換を行うPD(フォトダイオード)は、転送ゲートTG1、TG2、TG3をそれぞれ介して電荷蓄積領域としてのFD1、FD2、FD3に接続されているとともに、ドレインゲートDGを介してドレイン領域DR(電荷排出領域)に接続されている。   More specifically, in each pixel of the image sensor 29, a PD (photodiode) that forms a light receiving region and performs photoelectric conversion is transferred to FD1, FD2, and FD3 as charge storage regions via transfer gates TG1, TG2, and TG3, respectively. In addition to being connected, it is connected to the drain region DR (charge discharging region) via the drain gate DG.

FD1は、ドレインゲートDG1を介してドレイン領域DR1に接続されている。FD2は、ドレインゲートDG2を介してドレイン領域DR2に接続されている。FD3は、ドレインゲートDG3を介してドレイン領域DR3に接続されている。   FD1 is connected to the drain region DR1 via the drain gate DG1. FD2 is connected to the drain region DR2 through the drain gate DG2. FD3 is connected to the drain region DR3 via the drain gate DG3.

ここで、TXD信号は、ドレインゲートDG、DG1、DG2、DG3をオンオフ(開閉)する信号である。TX1信号は、転送ゲートTG1をオンオフ(開閉)する信号である。TX2信号は、転送ゲートTG2をオンオフ(開閉)する信号である。TX3信号は、転送ゲートTG3をオンオフ(開閉)する信号である。なお、各ゲートにおいて「オン」は「開」を意味し、「オフ」は「閉」を意味する。
TXD信号がハイの期間(各ドレインゲートがオンの期間)かつTX1信号、TX2信号、TX3信号がローの期間において、PDで光電変換により生じた電荷は、ドレインゲートDGを介してドレイン領域DRに排出される。
TXD信号がローの期間(各ドレインゲートがオフの期間)において、TX1信号がハイの期間(転送ゲートTG1がオンの期間)にPDで光電変換により生じた電荷は、転送ゲートTG1を介してFD1に転送、蓄積され、TX2信号がハイの期間(転送ゲートTG2がオンの期間)にPDで光源変換により生じた電荷は、転送ゲートTG2を介してFD2に転送、蓄積され、TX3信号がハイの期間(転送ゲートTG3がオンの期間)にPDで光電変換により生じた電荷は、転送ゲートTG3を介してFD3に転送、蓄積される。
Here, the TXD signal is a signal for turning on / off (opening / closing) the drain gates DG, DG1, DG2, and DG3. The TX1 signal is a signal for turning on / off (opening / closing) the transfer gate TG1. The TX2 signal is a signal for turning on / off (opening / closing) the transfer gate TG2. The TX3 signal is a signal for turning on / off (opening / closing) the transfer gate TG3. In each gate, “on” means “open” and “off” means “closed”.
During the period when the TXD signal is high (each drain gate is on) and the TX1, TX2, and TX3 signals are low, the charge generated by the photoelectric conversion in the PD is transferred to the drain region DR via the drain gate DG. Discharged.
During the period when the TXD signal is low (period in which each drain gate is off), the charge generated by photoelectric conversion at the PD during the period when the TX1 signal is high (period when the transfer gate TG1 is on) is transferred to the FD1 via the transfer gate TG1. The charge generated by the light source conversion in the PD during the period when the TX2 signal is high (the period when the transfer gate TG2 is on) is transferred and accumulated to the FD2 via the transfer gate TG2, and the TX3 signal is high. Charges generated by photoelectric conversion at the PD in the period (period in which the transfer gate TG3 is on) are transferred and accumulated in the FD 3 via the transfer gate TG3.

そして、TXD信号がローからハイになったとき(各ドレインゲートがオフからオンになったとき)、FD1の電圧が読み出された後FD1に蓄積された電荷がドレインゲートDG1を介してドレイン領域DR1に排出され、FD2の電圧が読み出された後FD2に蓄積された電荷がドレインゲートDG2を介してドレイン領域DR2に排出され、FD3の電圧が読み出された後FD3に蓄積された電荷がドレインゲートDG3を介してドレイン領域DR3に排出される。すなわち、各FDの電圧が読み出された後、該FDの蓄積電荷量がリセットされる。   When the TXD signal changes from low to high (when each drain gate is turned on from off), the charge accumulated in FD1 after the voltage of FD1 is read out via the drain gate DG1 The charge accumulated in FD2 after being discharged to DR1 and the voltage of FD2 being read out is discharged to the drain region DR2 via the drain gate DG2, and the charge accumulated in FD3 after the voltage of FD3 is read out It is discharged to the drain region DR3 through the drain gate DG3. That is, after the voltage of each FD is read, the accumulated charge amount of the FD is reset.

図11には、光源の発光期間とイメージセンサ29の露光期間(電荷蓄積期間)の関係を示すタイミング図が示されている。なお、実際には回路的な遅延があるため、TXD信号に対して回路的な遅延分の調整を行う必要があるが、ここでは回路的遅延がないものとして説明する。   FIG. 11 is a timing chart showing the relationship between the light emission period of the light source and the exposure period (charge accumulation period) of the image sensor 29. Note that since there is actually a circuit delay, it is necessary to adjust the circuit delay for the TXD signal. Here, it is assumed that there is no circuit delay.

イメージセンサ29は、受光部(画素)の受光領域上以外に遮光層が形成されており、受光領域にのみに光が入射するようになっている。上述したように、受光部に入射した光は、光電変換によって電荷(信号電荷)に変換され、その電荷はドレインゲートDGや転送ゲートTG1〜TG3におけるバイアス制御によって、ドレイン領域DRに排出されたり、FD1〜FD3に振り分けられる。   The image sensor 29 is formed with a light shielding layer other than on the light receiving region of the light receiving unit (pixel), and light is incident only on the light receiving region. As described above, the light incident on the light receiving unit is converted into electric charges (signal charges) by photoelectric conversion, and the electric charges are discharged to the drain region DR by bias control in the drain gate DG and the transfer gates TG1 to TG3, Sorted into FD1 to FD3.

ここで、図11に示されるタイミング図は、イメージセンサ29の全画素に対して同時に印加されるバイアス(TXD信号、TX1信号、TX2信号、TX3信号)のタイミングを示している。   Here, the timing chart shown in FIG. 11 shows the timing of the bias (TXD signal, TX1 signal, TX2 signal, TX3 signal) applied simultaneously to all the pixels of the image sensor 29.

TXD信号は、いわゆるグローバルシャッタの機能を有しており、光源21の発光開始タイミング(発光制御信号の立ち上りタイミング)に対する露光期間(電荷蓄積期間)を制御するための制御信号である。以下では、発光制御信号の立ち上りタイミングからTXD信号の立ち下がりタイミングまでの時間を「遅延時間Tdelay」と呼ぶ(図11参照)。   The TXD signal has a so-called global shutter function and is a control signal for controlling the exposure period (charge accumulation period) with respect to the light emission start timing (rise timing of the light emission control signal) of the light source 21. Hereinafter, the time from the rising timing of the light emission control signal to the falling timing of the TXD signal is referred to as “delay time Tdelay” (see FIG. 11).

TXD信号がハイの期間は、受光信号の電荷が常にドレイン領域DRに掃き出されている状態であり、リセットが継続されている状態である。つまり、TXD信号がハイの期間は、イメージセンサ29における非露光期間である。   During the period when the TXD signal is high, the charge of the light reception signal is constantly being swept out to the drain region DR, and the reset is continued. That is, the period when the TXD signal is high is a non-exposure period in the image sensor 29.

そして、TXD信号がハイからローになった瞬間から受光部に(もしくはTX1信号〜TX3信号の条件によってはFD1〜FD3に)電荷の蓄積が開始される。つまり、TXD信号がローの期間がイメージセンサ29における露光期間(電荷蓄積期間)となる。   Then, from the moment when the TXD signal changes from high to low, charge accumulation is started in the light receiving unit (or in FD1 to FD3 depending on the conditions of the TX1 signal to TX3 signal). That is, the period during which the TXD signal is low is the exposure period (charge accumulation period) in the image sensor 29.

以上の説明からわかるように、イメージセンサ29の全画素は、グローバルシャッタにより、露光期間が一致する(露光が同時に開始され、同時に終了される)。
換言すると、イメージセンサ29の全画素は、グローバルシャッタにより、電荷蓄積期間が一致する(電荷蓄積を同時に開始し、同時に終了する)。
As can be seen from the above description, the exposure periods of all the pixels of the image sensor 29 coincide with each other by the global shutter (exposure is started simultaneously and ended simultaneously).
In other words, all the pixels of the image sensor 29 have the same charge accumulation period due to the global shutter (charge accumulation starts simultaneously and ends simultaneously).

次に、TXD信号がローで、TX1信号、TX2信号、TX3信号がそれぞれハイになる期間について説明する。   Next, a period in which the TXD signal is low and the TX1, TX2, and TX3 signals are high will be described.

TX1信号、TX2信号、TX3信号それぞれのハイの期間の長さは、発光制御信号のパルス幅Twに等しく設定されている。このとき、イメージセンサ29の各画素(各受光部)の露光期間は、3Twとなる。露光期間中に各受光部で発生した電荷は、TX1信号、TX2信号、TX3信号がそれぞれハイの期間に、対応するFD1、FD2、FD3へ転送される。   The lengths of the high periods of the TX1 signal, the TX2 signal, and the TX3 signal are set to be equal to the pulse width Tw of the light emission control signal. At this time, the exposure period of each pixel (each light receiving unit) of the image sensor 29 is 3 Tw. Charges generated in each light receiving unit during the exposure period are transferred to the corresponding FD1, FD2, and FD3 during periods when the TX1, TX2, and TX3 signals are high.

ここで、以上の動作(発光・受光)を所定回数繰り返し行った後のFD1、FD2、FD3の蓄積電荷量をそれぞれA1、A2、A3とする。   Here, the accumulated charge amounts of FD1, FD2, and FD3 after the above operation (light emission / light reception) is repeatedly performed a predetermined number of times are defined as A1, A2, and A3, respectively.

以下では、背景光成分が全く無い状態を仮定して説明する。この仮定においてA1、A2、A3を混合して得られる輝度情報には、発光タイミングからの遅れ時間をtとしたときに、次の(1)式で表される範囲の反射光だけが反映される。
Tdelay−Tw<t<Tdelay+3Tw・・・(1)
In the following description, it is assumed that there is no background light component. In this assumption, the luminance information obtained by mixing A1, A2, and A3 reflects only the reflected light in the range expressed by the following equation (1), where t is the delay time from the light emission timing. The
Tdelay-Tw <t <Tdelay + 3Tw (1)

遅れ時間tは、距離センサ20から物体までの距離に依存するTOF(タイム・オブ・フライト)によって決まる量であり、光速cを用いて距離dに換算すると、次の(2)式のように表される(光の往復を考慮)。
(Tdelay−Tw)×c/2<d<(Tdelay+3Tw)×c/2・・・(2)
これによって、距離d1(=(Tdelay−Tw)×c/2)より近い距離範囲にある物体及び距離d2(=(Tdelay+3Tw)×c/2)より遠い距離範囲にある物体がイメージセンサ29の撮影画像に写りこまないため、例えば霧が発生しているようなシーンにおいて、通常は手前の霧によって見えない奥側の状態をクリアに(鮮明に)観測することが可能になる。
この原理が、非特許文献1で述べられているGated Imagingの基本原理である。
The delay time t is an amount determined by TOF (Time of Flight) depending on the distance from the distance sensor 20 to the object. When converted to the distance d using the speed of light c, the following equation (2) is obtained. Expressed (considering the round trip of light).
(Tdelay−Tw) × c / 2 <d <(Tdelay + 3Tw) × c / 2 (2)
Accordingly, the image sensor 29 captures an object in the distance range closer to the distance d1 (= (Tdelay−Tw) × c / 2) and an object in the distance range farther than the distance d2 (= (Tdelay + 3Tw) × c / 2). Since the image does not appear in the image, for example, in a scene where fog is generated, it is possible to clearly (clearly) observe the state on the back side that is not normally visible due to the fog in front.
This principle is the basic principle of Gated Imaging described in Non-Patent Document 1.

上記(2)式のようにTdelayとTwで制御可能な露光期間に対応する距離範囲にのみ存在するものだけを撮影して得られる距離画像を「スライス画像」と呼ぶこととする。   A distance image obtained by photographing only an image that exists only in a distance range corresponding to an exposure period that can be controlled by Tdelay and Tw as in the above equation (2) is referred to as a “slice image”.

ここで、従来のGated Imagingによれば、距離d1と距離d2の差を判別することはできないが、本実施形態では、蓄積電荷量A1、A2、A3を用いて、以下のようにして、距離分解能がより細かい距離情報を得ることを可能にしている。   Here, according to the conventional gated imaging, the difference between the distance d1 and the distance d2 cannot be determined. However, in the present embodiment, the accumulated charge amounts A1, A2, and A3 are used as follows. It is possible to obtain distance information with finer resolution.

Case1:A1>A3の場合、taは次の(3)式により求められる。
ta=Tdelay+A2/(A1+A2)×Tw・・・(3)
このとき、Tdelayが下限値となる。
Case2:A1<A3の場合、taは次の(4)式により求められる。
ta=Tdelay+{1+A3/(A2+A3)}×Tw・・・(4)
ここで、taが距離センサ20を用いて計測されるTOFであり、taと光速cを用いて被写体までの距離を求めることができる。
When Case1: A1> A3, ta is obtained by the following equation (3).
ta = Tdelay + A2 / (A1 + A2) × Tw (3)
At this time, Tdelay becomes the lower limit value.
Case2: When A1 <A3, ta is obtained by the following equation (4).
ta = Tdelay + {1 + A3 / (A2 + A3)} × Tw (4)
Here, ta is a TOF measured using the distance sensor 20, and the distance to the subject can be obtained using ta and the speed of light c.

ただし、Case1における下限値はTdelayであり、計測誤差の無い理想条件で考えた場合に、Gated Imagingの範囲であるTdelay−Tw<t<Tdelayに相当する距離範囲に存在する物体は全てTdelayに相当する距離となるか、または十分なS/Nが得られずに正確な計測ができていない状態になる。
同様に、Case2における上限値はTdelay+2Twであり、計測誤差の無い理想条件で考えた場合に、Tdelay+2Tw<t<Tdelay+3Twの範囲に相当する距離に存在する物体は全てTdelay+2Twの距離となるか、または十分なS/Nが得られずに正確な計測ができていない状態になる。
However, the lower limit value in Case 1 is Tdelay, and all objects existing in a distance range corresponding to Tdelay-Tw <t <Tdelay, which is a range of Gated Imaging, correspond to Tdelay when considered under ideal conditions without measurement errors. Or a sufficient S / N cannot be obtained and accurate measurement cannot be performed.
Similarly, the upper limit value in Case 2 is Tdelay + 2Tw, and all objects existing in the distance corresponding to the range of Tdelay + 2Tw <t <Tdelay + 3Tw are Tdelay + 2Tw or sufficient when considered under ideal conditions without measurement error. S / N cannot be obtained and accurate measurement is not possible.

このような距離範囲については、Tdelay以下またはTdelay+2Tw以上の判定がなされるだけでも有意義であり、また回避策としては複数のGated Imaging範囲で撮像した情報を合成することにより回避することが可能である。   For such a distance range, it is meaningful to make a determination of Tdelay or less or Tdelay + 2Tw or more, and as a workaround, it can be avoided by combining information captured in a plurality of gated imaging ranges. .

また、以上では理想的に背景光成分が全く存在しないケースについて説明してきたが、上記Case1、2において、Case1では蓄積電荷量A3が、Case2では蓄積電荷量A1が背景光による電荷量に一致するので、これらを差し引くことにより、背景光が存在する環境下においても、その影響を除去した撮影、演算が可能である。   Further, the case where the background light component is ideally absent at all has been described above. In Cases 1 and 2, the accumulated charge amount A3 in Case 1 and the accumulated charge amount A1 in Case 2 coincide with the amount of background light. Therefore, by subtracting these, it is possible to perform shooting and calculation without the influence even in an environment where background light exists.

以下に具体例を示す。
図11のタイミング図において、Tdelay=150ns、Tw=50nsとしたとき、撮影されるスライス画像に写る最短距離は(Tdelay−Tw)/2×c=15mとなり、最長距離は(Tdelay+3Tw)/2×c=45mとなる。
従来のGated Imagingであれば、15m〜45mの距離範囲にある物体を撮影しているということしか分からない。
これに対して本実施形態によれば、更にTdelay/2×c〜(Tdelay+2Tw)/2×cの距離範囲にある物体までの距離を測定することができる。この例においては、22.5m〜37.5mの距離範囲にある物体までの距離を測定可能となる。また、15m〜22.5mの距離範囲にある物体については、22.5mより近い距離にある物体であること、37.5m〜45mmの距離範囲にある物体については、37.5mより遠い距離にある物体であることとして検出する(図12参照)。
図12は、この例(Tdelay=150ns、Tw=50ns)のスライス画像に含まれる距離範囲のイメージ図である。
Specific examples are shown below.
In the timing chart of FIG. 11, when Tdelay = 150 ns and Tw = 50 ns, the shortest distance that appears in the slice image to be taken is (Tdelay−Tw) / 2 × c = 15 m, and the longest distance is (Tdelay + 3Tw) / 2 ×. c = 45 m.
In the case of conventional Gated Imaging, it is only known that an object in a distance range of 15 m to 45 m is being photographed.
On the other hand, according to the present embodiment, it is possible to further measure the distance to an object in the distance range of Tdelay / 2 × c to (Tdelay + 2Tw) / 2 × c. In this example, it is possible to measure a distance to an object in a distance range of 22.5 m to 37.5 m. In addition, an object in a distance range of 15 m to 22.5 m is an object in a distance closer than 22.5 m, and an object in a distance range of 37.5 m to 45 mm is in a distance farther than 37.5 m. It is detected as an object (see FIG. 12).
FIG. 12 is an image diagram of the distance range included in the slice image of this example (Tdelay = 150 ns, Tw = 50 ns).

以下に、距離センサ20によってスライス画像内の物体の距離が測定可能になる理由を、図13を参照して説明する。図13は、上記Case1に該当する場合を示している。
図13では、ta=Tdelay+Td[sec]になっている。
Tdelayは、Gated Imagingの設定によって決まる値である。
Tdは、投光系201から光が投光されてから、Gated Imagingの距離範囲にある物体で反射された光が受光系202に戻ってくるまでの時間taと、Tdelayとの差分である。
The reason why the distance of the object in the slice image can be measured by the distance sensor 20 will be described below with reference to FIG. FIG. 13 shows a case corresponding to the above Case1.
In FIG. 13, ta = Tdelay + Td [sec].
Tdelay is a value determined by the setting of Gated Imaging.
Td is the difference between Tde and the time ta from when the light is projected from the light projecting system 201 until the light reflected by the object in the distance range of Gated Imaging returns to the light receiving system 202.

従来のGated Imaging技術では、このTdを検出することができなかった。   The conventional Gated Imaging technique cannot detect this Td.

これに対し、本実施形態では、反射光の信号をTX1信号、TX2信号、TX3信号によって時間的に分割して検出することで、Tdを導出することが可能になっている。ここでは、上述のCase1(A1>A3の場合)を例にとって説明する。
Tdは、図13に示されるように、反射光の信号のパルス(パルス幅がTw)と、TX2信号のパルスが重なる時間に等しい。よって、Tdを、TX1信号、TX2信号の蓄積電荷量A1、A2の比から導出することが可能であり、次の(5)式により算出することができる。
Td=A2/(A1+A2)×Tw(=Q2/(Q1+Q2)×Tw)・・・(5)
こうすることで、従来のGated Imagingでは測定できていない、1枚のスライス画像内に写る物体毎の距離を測定することを可能にし、視界不良な条件下において遠方まで(例えば数百mまで)をクリアに(鮮明に)、かつ高速撮像(例えば30fps以上)で距離分解能が細かい距離画像を得ることを可能にしている。
On the other hand, in the present embodiment, it is possible to derive Td by detecting the reflected light signal divided in time by the TX1 signal, the TX2 signal, and the TX3 signal. Here, the case 1 described above (in the case of A1> A3) will be described as an example.
As shown in FIG. 13, Td is equal to the time when the pulse of the reflected light signal (pulse width is Tw) and the pulse of the TX2 signal overlap. Therefore, Td can be derived from the ratio of the accumulated charge amounts A1 and A2 of the TX1 signal and the TX2 signal, and can be calculated by the following equation (5).
Td = A2 / (A1 + A2) × Tw (= Q2 / (Q1 + Q2) × Tw) (5)
In this way, it is possible to measure the distance for each object that appears in one slice image, which cannot be measured by the conventional gated imaging, and far away (for example, up to several hundred meters) under poor visibility conditions. It is possible to obtain a distance image with a clear distance resolution with clear (clear) and high-speed imaging (for example, 30 fps or more).

一方、従来のGated Imaging手法の場合、距離分解能の細かい距離画像を取得するには多数回の撮影により得られた距離画像を合成処理する必要があり、高速撮像ができない。   On the other hand, in the case of the conventional gated imaging method, in order to acquire a distance image with a fine distance resolution, it is necessary to synthesize a distance image obtained by many shootings, and high-speed imaging cannot be performed.

ところで、測距レンジを複数の距離範囲に分割して、該複数の距離範囲に対応する複数のスライス画像を取得すれば、同一の測距レンジをカバーするのに1つのスライス画像を取得する場合よりも各スライス画像の距離範囲を狭くすることができる。各スライス画像の距離範囲が狭いほど該距離範囲により適した条件で撮影することができる。   By the way, when a distance measurement range is divided into a plurality of distance ranges and a plurality of slice images corresponding to the plurality of distance ranges are acquired, one slice image is acquired to cover the same distance measurement range. The distance range of each slice image can be narrowed. As the distance range of each slice image is narrower, it is possible to take an image under conditions more suitable for the distance range.

図14には、複数の距離範囲に対応する複数のスライス画像を取得する場合の概念図が示されている。図15には、複数のスライス画像を取得する際の発光制御信号、TXD信号のタイミング図(図14においてX=Y=Z=1の場合)が示されている。図16には、複数のスライス画像と複数の露光期間の対応関係が示されている。   FIG. 14 is a conceptual diagram when acquiring a plurality of slice images corresponding to a plurality of distance ranges. FIG. 15 shows a timing diagram of the light emission control signal and the TXD signal when a plurality of slice images are acquired (when X = Y = Z = 1 in FIG. 14). FIG. 16 shows the correspondence between a plurality of slice images and a plurality of exposure periods.

ここでは、複数のスライス画像として、近距離範囲のスライス画像である近距離側スライス画像、中距離範囲のスライス画像である中距離側スライス画像、遠距離範囲のスライス画像である遠距離側スライス画像の3段階のGated Imagingを行う場合を例に挙げている。   Here, as a plurality of slice images, a short-distance side slice image that is a short-distance range slice image, a middle-distance side slice image that is a medium-distance range slice image, and a long-distance side slice image that is a long-distance range slice image An example of performing three-stage Gated Imaging is given as an example.

図14〜図16に示されるように、近距離側スライス画像取得フレーム、中距離側スライス画像取得フレーム、遠距離側スライス画像取得フレームが連続的に設定されており、これら3つのフレームから成るフレーム群が繰り返し実行される。このフレーム群における3つのフレームの順序は適宜変更可能である。   As shown in FIG. 14 to FIG. 16, a short-distance side slice image acquisition frame, a medium-distance side slice image acquisition frame, and a long-distance side slice image acquisition frame are set continuously, and the frame is composed of these three frames. The group is executed repeatedly. The order of the three frames in this frame group can be changed as appropriate.

近距離側スライス画像取得フレームでは、発光期間Tw1の開始時から遅延時間Tdelay1後に露光期間Ta1が設定され、露光期間Ta1後にブランク期間Tb1が設定されている。
中距離側スライス画像取得フレームでは、発光期間Tw2の開始時から遅延時間Tdelay2後に露光期間Ta2が設定され、露光期間Ta2後にブランク期間Tb2が設定されている。
遠距離側スライス画像取得フレームでは、発光期間Tw3の開始時から遅延時間Tdelay3後に露光期間Ta3が設定され、露光期間Ta3後にブランク期間Tb3が設定されている。
ここでは、一例として、Tw1=Tw2=Tw3、Ta1=Ta2=Ta3であり、発光制御信号のパルス周期も一定である。
なお、露光期間をフレーム間で異ならせることで、露光期間に対応する距離範囲の長さをフレーム間で異ならせることもできる。
In the near-distance slice image acquisition frame, the exposure period Ta1 is set after the delay time Tdelay1 from the start of the light emission period Tw1, and the blank period Tb1 is set after the exposure period Ta1.
In the middle-distance slice image acquisition frame, the exposure period Ta2 is set after the delay time Tdelay2 from the start of the light emission period Tw2, and the blank period Tb2 is set after the exposure period Ta2.
In the long-distance slice image acquisition frame, the exposure period Ta3 is set after the delay time Tdelay3 from the start of the light emission period Tw3, and the blank period Tb3 is set after the exposure period Ta3.
Here, as an example, Tw1 = Tw2 = Tw3 and Ta1 = Ta2 = Ta3, and the pulse period of the light emission control signal is also constant.
In addition, the length of the distance range corresponding to an exposure period can also be varied between frames by varying the exposure period between frames.

ここで、図15及び図16に示されるように、Tdelay1<Tdelay2<Tdelay3とするのが好適である。この場合、距離センサ20の測距レンジを大きくすることができる。   Here, as shown in FIGS. 15 and 16, it is preferable to satisfy Tdelay1 <Tdelay2 <Tdelay3. In this case, the distance measuring range of the distance sensor 20 can be increased.

測距レンジを複数の距離範囲に分割して測定する場合(複数のスライス画像を取得する場合)、遅延時間Tdelayと露光期間により距離範囲が決まるため、遅延時間と露光期間を所望の値に設定した後、これらの設定値に応じてブランク期間を設定することが好ましい。
なお、各FDの電圧を読み出す期間や該FDをリセットする期間は、図14に示されるように各距離範囲の最後のフレーム(X回目のフレーム、Y回目のフレーム、Z回目のフレーム)の後に設けられても良いし、図15に示されるように各距離範囲のブランク期間内に設けられても良い。
When measuring with the distance measurement range divided into multiple distance ranges (when acquiring multiple slice images), the delay range and exposure period are set to the desired values because the distance range is determined by the delay time Tdelay and the exposure period. After that, it is preferable to set a blank period according to these set values.
The period for reading the voltage of each FD and the period for resetting the FD are after the last frame (X-th frame, Y-th frame, Z-th frame) in each distance range as shown in FIG. It may be provided, or may be provided within a blank period of each distance range as shown in FIG.

さらに、取得した複数のスライス画像を合成することで、距離範囲毎に適した条件で撮影した距離画像を統合した測距レンジ全域の距離画像が得られ、近距離側で信号量(電荷量)の飽和が発生せず、かつ遠距離側でも十分な明るさの距離画像を得ることが可能となる。   Furthermore, by synthesizing a plurality of acquired slice images, a distance image of the entire distance measurement range can be obtained by integrating distance images photographed under conditions suitable for each distance range, and the signal amount (charge amount) on the short distance side Thus, it is possible to obtain a distance image having sufficient brightness even on the long distance side.

各スライス画像の距離範囲は、時刻Tdelay〜時刻(Tdelay+露光期間)のTOFに相当する距離範囲となる。
特に、中距離撮影時や遠距離撮影時に、投光波を1パルスのみ受光するだけでは信号量(電荷量)が小さくなる場合には、発光・受光を複数回行って位相信号を蓄積した後、位相信号の読み出し、リセットを行うことが好ましい。
すなわち、距離センサ20からの距離の2乗に反比例して信号光強度が低下するため、例えば図17に示されるように、遠距離側を撮影するときほど発光・受光の回数を増やすこと(図14においてX≦Y≦Zの関係)が望ましい。
なお、近距離撮影時に、発光・受光を複数回行っても良い。
The distance range of each slice image is a distance range corresponding to the TOF from time Tdelay to time (Tdelay + exposure period).
In particular, during medium-range shooting or long-distance shooting, if the signal amount (charge amount) is reduced by receiving only one pulse of the projected wave, the light is emitted and received multiple times and the phase signal is accumulated. It is preferable to read out and reset the phase signal.
That is, since the signal light intensity decreases in inverse proportion to the square of the distance from the distance sensor 20, for example, as shown in FIG. 17, the number of times of light emission / light reception is increased as the far side is photographed (see FIG. 17). 14, the relationship X ≦ Y ≦ Z) is desirable.
Note that light emission and light reception may be performed a plurality of times during close-up shooting.

図17では、一例として、近距離側スライス画像取得フレームで発光、受光が1回ずつとされ、中距離側スライス画像取得フレームで発光・受光の繰り返し回数が2回とされ、遠距離側スライス画像取得フレームで発光・受光の繰り返し回数が3回とされている。
そして、図17において、近距離側スライス画像取得フレームでは、1回の発光・受光の後のブランク期間Tb1に複数の位相信号の読み出し、リセットが行われる。
中距離側スライス画像取得フレームでは、2回の発光・受光の後のブランク期間Tb2に複数の位相信号の読み出し、リセットが行われる。
遠距離側スライス画像取得フレームでは、3回の発光・受光の後のブランク期間Tb3に複数の位相信号の読み出し、リセットが行われる。
図17の例は、図14においてX=1、Y=2、Z=3の場合の例である。図17では、Tw1<Tw2<Tw3、Tdelay1<Tdelay2<Tdelay3、Ta1=Ta2=Ta3である。
なお、露光期間をフレーム間で異ならせることで、露光期間に対応する距離範囲の長さをフレーム間で異ならせることもできる。
ここでも、近距離側スライス画像取得フレーム、中距離側スライス画像取得フレーム、遠距離側スライス画像取得フレームから成るフレーム群が繰り返し実行されるが、該フレーム群における3つのフレームの順序は適宜変更可能である。発光制御信号のパルス周期は、フレーム間で、同じにしても良いし異ならせても良い。
In FIG. 17, as an example, light emission and light reception are performed once in the short-distance side slice image acquisition frame, and light emission and light reception are repeated twice in the medium-distance side slice image acquisition frame. The number of repetitions of light emission and light reception is set to 3 in the acquisition frame.
In FIG. 17, in the short-distance slice image acquisition frame, a plurality of phase signals are read out and reset in a blank period Tb1 after one light emission / light reception.
In the middle-distance slice image acquisition frame, a plurality of phase signals are read out and reset in a blank period Tb2 after two light emission / light receptions.
In the long-distance slice image acquisition frame, a plurality of phase signals are read out and reset in a blank period Tb3 after three times of light emission / light reception.
The example of FIG. 17 is an example when X = 1, Y = 2, and Z = 3 in FIG. In FIG. 17, Tw1 <Tw2 <Tw3, Tdelay1 <Tdelay2 <Tdelay3, and Ta1 = Ta2 = Ta3.
In addition, the length of the distance range corresponding to an exposure period can also be varied between frames by varying the exposure period between frames.
Again, a frame group consisting of a short-distance slice image acquisition frame, a medium-distance slice image acquisition frame, and a long-distance slice image acquisition frame is repeatedly executed, but the order of the three frames in the frame group can be changed as appropriate. It is. The pulse cycle of the light emission control signal may be the same or different between frames.

また、ここで、TX1信号〜TXN信号によって時間的にN個に分割して取得された位相信号を用いて距離演算を行うにあたって、原理的に光源の発光時間(発光制御信号のパルス幅)が短いほど距離分解能が高くなることが知られている。
しかし、光源の発光時間を短くしていくと、光波形の立ち上がり/立ち下がりが追いつかず、投光パルスの出力値が低下したり、イメージセンサの振分けのコントラストが低下する影響が生じて、実質的にS/Nが低下することが知られている。
また、上記の通りS/Nは遠距離撮像時ほど厳しい条件となるため、近距離撮影時はパルス幅を短くし、遠距離撮影時はパルス幅を長くすることが好ましい。そこで、例えば図18に示されるように、Tw1<Tw2<Tw3とすることが好ましい。
In addition, here, when performing the distance calculation using the phase signals obtained by dividing the signals by the TX1 signal to the TXN signal into N, the light emission time of the light source (the pulse width of the light emission control signal) is theoretically determined. It is known that the shorter the distance, the higher the distance resolution.
However, if the light emission time of the light source is shortened, the rise / fall of the light waveform cannot catch up, and the output value of the light projection pulse is lowered, or the contrast of the image sensor distribution is lowered. In particular, it is known that S / N decreases.
In addition, as described above, the S / N is more severe as long distance imaging is performed. Therefore, it is preferable to shorten the pulse width during short distance imaging and increase the pulse width during long distance imaging. Therefore, for example, as shown in FIG. 18, it is preferable to satisfy Tw1 <Tw2 <Tw3.

図18の例は、図14においてX=Y=Z=1の場合の例である。図18では、Tdelay1<Tdelay2<Tdelay3、Ta1=Ta2=Ta3であり、発光制御信号のパルス周期は一定である。
なお、露光期間をフレーム間で異ならせることで、露光期間に対応する距離範囲の長さをフレーム間で異ならせることもできる。
The example of FIG. 18 is an example in the case of X = Y = Z = 1 in FIG. In FIG. 18, Tdelay1 <Tdelay2 <Tdelay3, Ta1 = Ta2 = Ta3, and the pulse period of the light emission control signal is constant.
In addition, the length of the distance range corresponding to an exposure period can also be varied between frames by varying the exposure period between frames.

ここで、図16には、近距離側スライス画像と中距離側スライス画像の距離範囲が一部重複し、中距離側スライス画像と遠距離側スライス画像の距離範囲が一部重複する例が示されているが、必ずしも重複させる必要はない。
ただし、重複範囲が生じるように撮影することで、例えば近距離側スライス画像のみに写っている物体、近距離側スライス画像及び中距離側スライス画像の両方に写っている物体、中距離側スライス画像のみに写っている物体として、近距離側スライス画像及び中距離側スライス画像に対してGated Imagingの情報だけを使って、物体までの距離情報を3つの距離レベルに分割することが可能になる。なお、重複範囲を設定しない場合は、スライス画像が2枚であれば2つの距離レベルにしか分割できない。
なお、距離範囲の近距離側の端は遅延時間Tdelayで決まり、距離範囲の長さ(距離範囲の近距離側の端から遠距離側の端までの距離)は露光期間で決まる。そこで、各距離範囲に対応する遅延時間と露光期間により、隣接する2つの距離範囲の重複範囲(0を含む)を調整することができる。
Here, FIG. 16 shows an example in which the distance range of the short distance side slice image and the middle distance side slice image partially overlap, and the distance range of the middle distance side slice image and the far distance side slice image partially overlap. However, it is not always necessary to overlap.
However, by shooting so that an overlapping range occurs, for example, an object that appears only in the short-distance slice image, an object that appears in both the short-distance slice image and the medium-distance slice image, and the medium-distance slice image It is possible to divide the distance information to the object into three distance levels by using only the information of the gated imaging for the short-distance side slice image and the middle-distance side slice image. If the overlapping range is not set, if there are two slice images, it can be divided only into two distance levels.
Note that the end on the short distance side of the distance range is determined by the delay time Tdelay, and the length of the distance range (the distance from the short distance side end to the long distance end of the distance range) is determined by the exposure period. Therefore, the overlapping range (including 0) of two adjacent distance ranges can be adjusted by the delay time and the exposure period corresponding to each distance range.

ところで、非特許文献1で述べられている「Active Gated Imaging技術」によって、雨雪や霧などの視界不良時でも遠方までクリアな撮像が可能になってきている。
すなわち、従来のGated Imagingにより、測距レンジを複数の距離範囲にスライスして(分割して)複数のスライス画像を取得することで、複数の距離範囲の距離情報を得ることができる。
しかし、各距離範囲の距離情報は、あくまで距離範囲毎の距離情報であって、距離範囲内の任意の位置の距離情報ではない。
そこで、測距レンジのスライス数(スライス画像の数)を増やせば、距離分解能を高めることが可能である。
しかし、スライス数を増やすことは撮影回数を増やすことにつながるため、全体の画像(全てのスライス画像)を取得するのに要する撮影時間が長くなる。
つまり、従来のGated Imagingでは、距離分解能とフレームレートがトレードオフの関係にある。
By the way, “Active Gated Imaging technology” described in Non-Patent Document 1 makes it possible to take clear images far away even in the case of poor visibility such as rain and snow or fog.
That is, distance information of a plurality of distance ranges can be obtained by slicing (dividing) the distance measurement range into a plurality of distance ranges and acquiring a plurality of slice images by conventional Gated Imaging.
However, the distance information of each distance range is only distance information for each distance range, and is not distance information of an arbitrary position within the distance range.
Therefore, if the number of slices (number of slice images) in the distance measurement range is increased, the distance resolution can be increased.
However, since increasing the number of slices leads to an increase in the number of times of shooting, the shooting time required to acquire the entire image (all slice images) becomes longer.
That is, in the conventional gated imaging, the distance resolution and the frame rate are in a trade-off relationship.

以上説明した本実施形態の距離センサ20(測距装置)は、第1の観点からすると、光源21と、該光源21から射出され物体で反射された光を受光して光電変換するイメージセンサ29(撮像素子)と、光源21の発光開始タイミングに対するイメージセンサ29の露光期間を制御し、イメージセンサ29に露光期間に光電変換により生じた電気信号(受光信号)を複数の位相信号に振り分けて取得させる同期制御部204(制御部)と、複数の位相信号に基づいて、露光期間に対応する距離範囲に存在する物体までの距離を算出する画像処理部203(演算部)と、を備える測距装置である。   From the first viewpoint, the distance sensor 20 (ranging device) according to the present embodiment described above has a light source 21 and an image sensor 29 that receives and photoelectrically converts light emitted from the light source 21 and reflected by an object. (Image sensor) and the exposure period of the image sensor 29 with respect to the light emission start timing of the light source 21 are controlled, and the electric signal (light reception signal) generated by the photoelectric conversion in the exposure period is distributed to the plurality of phase signals. Ranging control unit 204 (control unit), and an image processing unit 203 (calculation unit) that calculates a distance to an object existing in a distance range corresponding to the exposure period based on a plurality of phase signals Device.

また、本実施形態の距離センサ20(測距装置)は、第2の観点からすると、光源21と該光源21から射出され物体で反射された光を受光して光電変換する受光領域と、光電変換により生じた電荷を蓄積するための複数の電荷蓄積領域(例えばFD)から成る電荷蓄積領域群と、電荷を排出するための電荷排出領域(例えばドレイン領域)とを有するイメージセンサ29(撮像素子)と、電荷の送り先を電荷排出領域と電荷蓄積領域群との間で切り替えることにより、光源21の発光開始タイミングに対して電荷蓄積領域群へ電荷を送る露光期間(期間)を制御し、露光期間内の異なる複数の時間帯それぞれに生じた電荷を複数の電荷蓄積領域のいずれかへ送る同期制御部204(制御部)と、複数の電荷蓄積領域の電荷蓄積量に基づいて、露光期間に対応する距離範囲に存在する物体までの距離を算出する距離演算部203と、を備える測距装置である。   From the second viewpoint, the distance sensor 20 (ranging device) according to the present embodiment includes a light source 21, a light receiving region that receives light emitted from the light source 21 and reflected by an object, and performs photoelectric conversion, and a photoelectric sensor. An image sensor 29 (imaging device) having a charge accumulation region group composed of a plurality of charge accumulation regions (for example, FD) for accumulating charges generated by the conversion and a charge discharge region (for example, a drain region) for discharging charges. ) And the charge destination are switched between the charge discharge region and the charge accumulation region group, thereby controlling the exposure period (period) in which the charge is transmitted to the charge accumulation region group with respect to the light emission start timing of the light source 21. Based on the synchronization control unit 204 (control unit) that sends charges generated in a plurality of different time zones within a period to any of the plurality of charge storage regions, and the charge storage amount of the plurality of charge storage regions A distance calculator 203 for calculating the distance to an object present in a distance range corresponding to the exposure period, a distance measuring device comprising a.

本実施形態の距離センサ20では、露光期間に得られた受光信号の電荷を複数の時間成分に分割して検出するので、露光期間に対応する距離範囲に存在する物体までの距離を測定することができる。
すなわち、所望の距離範囲に存在する(スライス画像に写る)物体毎の距離を測定することができる。
In the distance sensor 20 of the present embodiment, since the charge of the light reception signal obtained during the exposure period is detected by dividing it into a plurality of time components, the distance to the object existing in the distance range corresponding to the exposure period is measured. Can do.
That is, it is possible to measure the distance for each object existing in the desired distance range (shown in the slice image).

結果として、本実施形態の距離センサ20によれば、フレームレートの低下を抑制しつつ所望の距離範囲において距離分解能を向上させることができる。   As a result, according to the distance sensor 20 of the present embodiment, it is possible to improve the distance resolution in a desired distance range while suppressing a decrease in the frame rate.

一方、特許文献1では、一般的な間接TOF法において、背景光除去のためのドレイン構造を設けた画素構造及びその駆動タイミングに関するものであって、Gated Imagingのように距離毎のスライス画像を取得するものではなく、近距離ほど高輝度で遠方ほど低輝度な画像しか得られない。   On the other hand, Patent Document 1 relates to a pixel structure provided with a drain structure for removing background light and a driving timing thereof in a general indirect TOF method, and obtains slice images for each distance as in Gated Imaging. However, it is possible to obtain only an image with high brightness at a short distance and low brightness at a long distance.

また、非特許文献1では、Gated Imagingによって距離範囲毎に適した露光タイミングで撮影されたスライス画像が得られるので、近距離側から遠距離側までのクリアな画像を取得できるが、各スライス画像については、所定の距離範囲に存在するという距離情報のみしか得ることができず、1つのスライス画像内に写っている物体毎の距離情報は得られない。例えば、Gated Imaging条件が5m〜15mのスライス画像を取得したときに、その画像に写っている、5mの距離の物体と15mの距離の物体とで距離の区別がつかない。そこで、所望の距離範囲における距離分解能を向上させるために該距離範囲をスライスして(分割して)複数のスライス画像を取得すると、撮影回数が増加しフレームレートの低下を抑制することができない。   Further, in Non-Patent Document 1, a sliced image captured at an exposure timing suitable for each distance range can be obtained by gated imaging, so that a clear image from the short distance side to the long distance side can be acquired. As for, only distance information indicating that it exists in a predetermined distance range can be obtained, and distance information for each object shown in one slice image cannot be obtained. For example, when a sliced image having a gated imaging condition of 5 to 15 m is acquired, it is not possible to distinguish the distance between an object having a distance of 5 m and an object having a distance of 15 m that are reflected in the image. Therefore, when a plurality of slice images are obtained by slicing (dividing) the distance range in order to improve the distance resolution in the desired distance range, the number of times of photographing increases and the reduction in the frame rate cannot be suppressed.

すなわち、特許文献1や非特許文献1では、フレームレートの低下を抑制しつつ所望の距離範囲において距離分解能を向上させることに関して改善の余地があった。   That is, in Patent Document 1 and Non-Patent Document 1, there is room for improvement in improving distance resolution in a desired distance range while suppressing a decrease in frame rate.

また、同期制御部204は、制御信号(TXD信号)を用いて発光開始タイミングから露光期間の開始タイミングまでの時間である遅延時間Tdelayを制御し、画像処理部203は、遅延時間と各位相信号の取得期間(上記各時間帯)の長さTwと各位相信号の信号量(各電荷蓄積領域の電荷蓄積量)を用いて距離を算出することが好ましい。この場合、所望の距離範囲において高精度な測距を確実に行うことができる。   In addition, the synchronization control unit 204 controls a delay time Tdelay that is a time from the light emission start timing to the exposure period start timing using the control signal (TXD signal), and the image processing unit 203 uses the delay time and each phase signal. It is preferable to calculate the distance using the length Tw of the acquisition period (each time period) and the signal amount of each phase signal (charge accumulation amount of each charge accumulation region). In this case, highly accurate distance measurement can be reliably performed in a desired distance range.

また、同期制御部204は、制御信号を用いて複数(n個)の位相信号の取得期間(上記時間帯)を制御し、露光期間の長さは、複数の位相信号の取得期間(上記時間帯)の長さTwを合算した長さであることが好ましい。この場合、限られた露光期間において複数の位相信号を効率良く取得することができる。   In addition, the synchronization control unit 204 controls a plurality of (n) phase signal acquisition periods (the above-described time period) using the control signal, and the exposure period has a length of the plurality of phase signal acquisition periods (the above-described time periods). It is preferable that the length is a sum of the lengths Tw of the band). In this case, a plurality of phase signals can be efficiently acquired in a limited exposure period.

また、光源21の発光期間Twと該発光期間に対応する露光期間の組をそれぞれが少なくとも1組含む、時間的に隣接する2つのフレーム間で、発光開始タイミングから露光期間の開始タイミングまでの時間(遅延時間)を異ならせても良い。この場合、時間的に隣接する2つのフレームにおいて異なる2つの距離範囲に存在する物体までの距離を測定することができる。さらに、この場合、距離範囲毎に適した条件で測定を行うことができるので、各距離範囲に存在する物体までの距離を精度良く算出することができる。
具体的には、視界良好な条件下のみならず視界不良な条件下においても遠方まで(例えば数百mまで)をクリアに、かつ高速撮像(例えば30fps以上)で距離分解能が細かい距離画像を得ることが可能である。
The time from the light emission start timing to the exposure period start timing between two temporally adjacent frames each including at least one set of the light emission period Tw and the exposure period corresponding to the light emission period. (Delay time) may be varied. In this case, the distance to an object existing in two different distance ranges in two temporally adjacent frames can be measured. Furthermore, in this case, since the measurement can be performed under conditions suitable for each distance range, the distance to the object existing in each distance range can be calculated with high accuracy.
Specifically, a distance image with a fine distance resolution can be obtained not only under good visibility conditions but also under poor visibility conditions. It is possible.

また、時間的に隣接する2つのフレームの露光期間に対応する距離範囲は、一部重複していても良い。   Further, the distance ranges corresponding to the exposure periods of two temporally adjacent frames may partially overlap.

また、上記組の数が、時間的に隣接する2つのフレーム間で異なっていても良い。この場合、距離範囲毎に好適な条件で測定を行うことができる。   Further, the number of the sets may be different between two temporally adjacent frames. In this case, measurement can be performed under suitable conditions for each distance range.

また、時間的に隣接する2つのフレームのうち遅延時間が短い方のフレームは、遅延時間が長い方のフレームよりも上記組の数が少ないことが好ましい。
換言すると、物体までの距離を距離範囲毎に測定する際、同期制御部204は、複数の距離範囲のうち近距離側の距離範囲ほど光源21の発光及びイメージセンサ29の受光の繰り返し回数を少なくすることが好ましい。
この場合、近距離側での電荷の飽和を抑制し、かつ遠距離側での測距精度の向上を図ることができる。
In addition, it is preferable that the frame having the shorter delay time of the two frames adjacent in time has a smaller number of the above-mentioned groups than the frame having the longer delay time.
In other words, when measuring the distance to the object for each distance range, the synchronization control unit 204 decreases the number of repetitions of light emission of the light source 21 and light reception of the image sensor 29 in the distance range closer to the distance range. It is preferable to do.
In this case, it is possible to suppress the charge saturation on the short distance side and improve the ranging accuracy on the long distance side.

また、時間的に隣接する2つのフレームのうち遅延時間が短い方のフレームは、遅延時間が長い方のフレームよりも光源21の発光期間の長さ(発光時間)が短いことが好ましい。
換言すると、物体までの距離を距離範囲毎に測定する際、同期制御部204は、複数の距離範囲のうち近距離側の距離範囲ほど光源21の発光時間(発光制御信号のパルス幅)を短くすることが好ましい。この場合、近距離側での電荷の飽和を抑制し、かつ遠距離側での測距精度の向上を図ることができる。
In addition, it is preferable that the frame with the shorter delay time of two temporally adjacent frames has a shorter light emission period (light emission time) of the light source 21 than the frame with the longer delay time.
In other words, when measuring the distance to the object for each distance range, the synchronization control unit 204 shortens the light emission time (pulse width of the light emission control signal) of the light source 21 in the distance range closer to the short side among the plurality of distance ranges. It is preferable to do. In this case, it is possible to suppress the charge saturation on the short distance side and improve the ranging accuracy on the long distance side.

また、イメージセンサ29は、2次元アレイ状に配置された複数の受光部を含むことが好ましい。この場合、2次元の距離画像を生成することができる。   The image sensor 29 preferably includes a plurality of light receiving units arranged in a two-dimensional array. In this case, a two-dimensional distance image can be generated.

なお、イメージセンサ29は、単一の受光部を含んでいても良いし、1次元アレイ状に配置された複数の受光部を含んでいても良い。   The image sensor 29 may include a single light receiving unit, or may include a plurality of light receiving units arranged in a one-dimensional array.

また、距離センサ20を有する走行体1(移動体)によれば、所望の距離範囲の任意の位置に存在する物体に対して走行体1を安全に走行させることができる。   Moreover, according to the traveling body 1 (moving body) having the distance sensor 20, the traveling body 1 can travel safely with respect to an object existing at an arbitrary position within a desired distance range.

また、本実施形態の測距方法は、第1の観点からすると、光源21から射出され物体で反射された光をイメージセンサ29(撮像素子)で受光して光電変換し、物体までの距離を測定する測距方法であって、光源21の発光開始タイミングに対するイメージセンサ29の露光期間を制御し、イメージセンサ29に露光期間に光電変換により生じた電気信号を複数の位相信号に分けて取得させる工程と、複数の位相信号に基づいて、露光期間に対応する距離範囲に存在する物体までの距離を算出する工程と、を含む測距方法である。   Further, from the first viewpoint, the distance measuring method of the present embodiment receives light emitted from the light source 21 and reflected by the object by the image sensor 29 (imaging device) and photoelectrically converts the distance to the object. A distance measuring method for measuring, which controls the exposure period of the image sensor 29 with respect to the light emission start timing of the light source 21, and causes the image sensor 29 to acquire an electric signal generated by photoelectric conversion during the exposure period by dividing it into a plurality of phase signals. And a step of calculating a distance to an object existing in a distance range corresponding to an exposure period based on a plurality of phase signals.

また、本実施形態の測距方法は、第2の観点からすると、光源21と、複数の電荷蓄積領域(例えばFD)から成る電荷蓄積領域群及び電荷排出領域(例えばドレイン領域)を有するイメージセンサ29(撮像素子)とを用いる測距方法であって、光源21から射出され物体で反射された光をイメージセンサ29で受光し光電変換により生じた電荷を電荷排出領域に送る工程と、該電荷を電荷蓄積領域群に送る工程と、を含み、電荷蓄積領域群に送る工程では、露光期間(所定期間)内の異なる複数の時間帯それぞれに生じた電荷を複数の電荷蓄積領域のいずれかへ送り、複数の電荷蓄積領域の電荷蓄積量に基づいて、露光期間に対応する距離範囲に存在する物体までの距離を算出する工程を更に含む測距方法である。   From the second viewpoint, the distance measuring method according to the present embodiment includes an image sensor having a light source 21, a charge accumulation region group including a plurality of charge accumulation regions (for example, FD), and a charge discharge region (for example, a drain region). 29 (imaging device), a step of receiving the light emitted from the light source 21 and reflected by the object by the image sensor 29 and sending the charge generated by the photoelectric conversion to the charge discharge region; And sending the charge generated in each of a plurality of different time zones within the exposure period (predetermined period) to any one of the plurality of charge accumulation regions. The distance measurement method further includes a step of calculating a distance to an object existing in a distance range corresponding to an exposure period based on the charge accumulation amounts of the plurality of charge accumulation regions.

この場合、フレームレートの低下を抑制しつつ所望の距離範囲において距離分解能を向上させることができる。   In this case, it is possible to improve the distance resolution in a desired distance range while suppressing a decrease in the frame rate.

なお、上記実施形態では、投光系が非走査型であるが、光偏向器(例えばポリゴンミラー、ガルバノミラー、MEMSミラー等)を含む走査型であっても良い。この場合、例えば、一方向に配列された複数の発光部(ライン光源)からそれぞれ射出された複数の光を、発光部の配列方向に非平行な方向(例えば垂直な方向)に走査して、複数の発光部に対応して該配列方向に平行に配列された複数の受光部(ラインイメージセンサ)で受光し、距離画像を生成しても良い。また、単一の発光部からの光を光偏向手段で2次元走査して、物体からの反射光をエリアイメージセンサで受光し、距離画像を生成しても良い。   In the above embodiment, the light projecting system is a non-scanning type, but may be a scanning type including an optical deflector (for example, a polygon mirror, a galvano mirror, a MEMS mirror, etc.). In this case, for example, scanning a plurality of lights respectively emitted from a plurality of light emitting units (line light sources) arranged in one direction in a direction (for example, a vertical direction) non-parallel to the arrangement direction of the light emitting units, A distance image may be generated by receiving light with a plurality of light receiving units (line image sensors) arranged in parallel to the arrangement direction corresponding to the plurality of light emitting units. Alternatively, the distance image may be generated by two-dimensionally scanning the light from the single light emitting unit with the light deflecting unit and receiving the reflected light from the object with the area image sensor.

また、上記実施形態では、本発明の測距装置の一例である距離センサ20を走行体1に用いられる場合について説明したが、これに限定されるものではない。例えば、距離センサ20を、走行体1以外の移動体(例えば乗用車、船舶、航空機等)、監視装置、物体の3次元形状を計測する3次元計測装置、距離センサ20が自身の位置を確認しながら自律的に移動するロボット等に用いても良い。   Moreover, although the said embodiment demonstrated the case where the distance sensor 20 which is an example of the distance measuring device of this invention was used for the traveling body 1, it is not limited to this. For example, the distance sensor 20 is a moving body other than the traveling body 1 (for example, a passenger car, a ship, an aircraft, etc.), a monitoring device, a three-dimensional measuring device that measures the three-dimensional shape of an object, and the distance sensor 20 confirms its position. However, you may use for the robot etc. which move autonomously.

そこで、距離センサ20を有する監視装置によれば、所望の距離範囲の任意の位置に存在する物体の高品質なモニタ画像を得ることができる。   Therefore, according to the monitoring device having the distance sensor 20, it is possible to obtain a high-quality monitor image of an object existing at an arbitrary position within a desired distance range.

また、距離センサ20を有する3次元計測装置によれば、所望の距離範囲の任意の位置に存在する物体の3次元情報を精度良く計測することができる。   In addition, according to the three-dimensional measurement apparatus having the distance sensor 20, it is possible to accurately measure the three-dimensional information of an object existing at an arbitrary position within a desired distance range.

また、距離センサ20を有するロボットによれば、所望の距離範囲の任意の位置に存在する物体に対する適切な自律移動(接近動作や離間動作や平行移動)を可能とすることができる。   Moreover, according to the robot having the distance sensor 20, appropriate autonomous movement (approach operation, separation operation, and parallel movement) with respect to an object existing at an arbitrary position within a desired distance range can be performed.

また、受光部として、PDの代わりに、例えばAPD(アバランシェフォトダイオード)、フォトトランジスタ等を用いても良い。   Further, for example, an APD (avalanche photodiode), a phototransistor, or the like may be used as the light receiving unit instead of the PD.

また、受光信号の時間的な分割数は、上記実施形態で説明した数に限らず、要は、複数であれば良い。   In addition, the number of temporal divisions of the received light signal is not limited to the number described in the above-described embodiment, and may be any plural number.

また、イメージセンサが画素毎に有する、受光信号を時間的に振り分けるためのゲート構造の数(電荷蓄積領域の数)や、受光信号の振り分け期間(電荷蓄積期間)を制御するためのゲート構造の数(電荷排出領域の数)は、上記実施形態で説明した数に限らず、適宜変更可能である。   In addition, the image sensor has a gate structure for controlling the number of gate structures (number of charge storage regions) for temporally distributing the received light signals and the distribution period (charge storage period) of the received light signals, for each pixel. The number (number of charge discharge regions) is not limited to the number described in the above embodiment, and can be changed as appropriate.

また、上記実施形態では、単一のLED(発光部)をパルス発光させ、物体からの反射光をエリアイメージセンサで受光する場合について説明したが、これに限定されるものではない。   Moreover, although the said embodiment demonstrated the case where a single LED (light emission part) light-emitted a pulse and received the reflected light from an object with an area image sensor, it is not limited to this.

例えば、2次元配列された複数の発光部を順次パルス点灯させ、各発光部から射出され物体で反射された光を単一の受光部で順次受光しても良い。   For example, a plurality of light emitting units arranged two-dimensionally may be sequentially pulsed, and light emitted from each light emitting unit and reflected by an object may be sequentially received by a single light receiving unit.

例えば、2次元配列された複数の発光部を同時にパルス発光させ、複数の発光部から射出され物体で反射された複数の光を2次元配列された複数の受光部でそれぞれ同時に受光しても良い。   For example, a plurality of light emitting units arranged two-dimensionally may simultaneously emit pulses, and a plurality of lights emitted from the plurality of light emitting units and reflected by an object may be simultaneously received by the plurality of light receiving units arranged two-dimensionally. .

また、例えば、物体の3次元情報(距離画像)ではなく、単にある物体までの距離を測定する場合には、投光系の発光部及び受光系の受光部は、いずれも単数であっても良い。   For example, when measuring the distance to a certain object instead of the three-dimensional information (distance image) of the object, both the light emitting unit of the light projecting system and the light receiving unit of the light receiving system may be singular. good.

また、上記実施形態において、画像処理部203での処理の一部を位置制御装置40が行っても良いし、位置制御装置40での処理の一部を画像処理部203が行っても良い。   In the above embodiment, the position control device 40 may perform part of the processing in the image processing unit 203, or the image processing unit 203 may perform part of the processing in the position control device 40.

また、上記実施形態では、走行管理装置10が1つの距離センサ20を備える場合について説明したが、これに限定されるものではない。走行体の大きさ、測定領域などに応じて、複数の距離センサ20を備えても良い。   Moreover, although the said embodiment demonstrated the case where the driving | running | working management apparatus 10 was provided with the one distance sensor 20, it is not limited to this. A plurality of distance sensors 20 may be provided according to the size of the traveling body, the measurement area, and the like.

また、上記実施形態では、距離センサ20が走行体の進行方向を監視する走行管理装置10に用いられる場合について説明したが、これに限定されるものではない。例えば、走行体の後方や側面を監視する装置に用いられても良い。   Moreover, although the said embodiment demonstrated the case where the distance sensor 20 was used for the traveling management apparatus 10 which monitors the advancing direction of a traveling body, it is not limited to this. For example, you may use for the apparatus which monitors the back and side surface of a traveling body.

以上の説明から分かるように、本発明の測距装置及び測距方法は、TOF(タイム オブ フライト)を利用した測距技術全般に広く適用することが可能である。   As can be seen from the above description, the distance measuring device and the distance measuring method of the present invention can be widely applied to all distance measuring techniques using TOF (Time of Flight).

すなわち、本発明の測距装置及び測距方法は、物体の2次元情報の取得や、物体の有無の検出にも用いることができる。   That is, the distance measuring apparatus and the distance measuring method of the present invention can also be used for acquiring two-dimensional information of an object and detecting the presence or absence of the object.

また、上記実施形態の説明で用いた数値、形状等は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The numerical values, shapes, and the like used in the description of the above embodiments can be changed as appropriate without departing from the spirit of the present invention.

以下に、発明者が上記実施形態を発案するに至った思考プロセスについて説明する。
TOFセンシングにおいて、背景光の蓄積量が多いと、そのショットノイズによるS/Nの劣化と、ダイナミックレンジが低下する(電荷蓄積部の容量に上限があるのでそこに背景光成分が溜まると信号成分を溜められる容量が低下する)悪影響が生じる。そこで、画素毎のドレイン構造によって背景光を除去可能なTOFセンサ構造と駆動タイミングを提供する必要がある。
Below, the thought process which the inventor came up with the said embodiment is demonstrated.
In TOF sensing, if the amount of accumulated background light is large, the S / N deterioration due to the shot noise and the dynamic range are reduced (the charge storage unit has an upper limit, so if the background light component accumulates there, the signal component Adversely occurs). Therefore, it is necessary to provide a TOF sensor structure and driving timing capable of removing background light by a drain structure for each pixel.

非特許文献1は、Gated Imagingの概略と効果確認結果が記載された論文である。Gated Imagingを用いることによって、測距レンジにおける所望の距離範囲に対して適正な露光条件で撮影が可能になり、近距離側から遠距離側まで鮮明な画像センシングが可能になる。また、霧などが発生している場合においても、所望の距離範囲にある物体だけを撮影することが可能になるので、手前の霧が画像に写り込むことがなく、遠方までのクリアな画像センシングが可能になる。   Non-Patent Document 1 is a paper in which an outline of Gated Imaging and an effect confirmation result are described. By using the gated imaging, it is possible to take an image under an appropriate exposure condition for a desired distance range in the distance measurement range, and clear image sensing from the short distance side to the long distance side is possible. In addition, even when fog is generated, it is possible to photograph only objects within a desired distance range, so that the image of the near mist does not appear in the image, and clear image sensing up to a distance is possible. Is possible.

しかし、Gated Imagingを用いる場合に、距離分解能を向上させるために測距レンジの分割数(距離範囲の数)を徒に増やすと、撮影回数の増加(フレームレートの低下)を招くことが懸念される。   However, when using Gated Imaging, there is a concern that if the number of divisions of the distance measurement range (number of distance ranges) is increased in order to improve the distance resolution, the number of shootings will increase (the frame rate will decrease). The

また、従来のアクティブ型センサは、近距離側の物体ほど高輝度になるため、遠距離側の物体を撮影しようとすると近距離側の物体の露光がオーバーになり、飽和やブルーミングが生じやすく、クリアな画像センシングができないケースが生じる。   In addition, since the conventional active sensor has higher brightness as the object at the short distance side, when attempting to photograph the object at the long distance side, the object at the short distance side is overexposed, and saturation and blooming are likely to occur. There are cases where clear image sensing is not possible.

そこで、発明者は、近距離側から遠距離側までをクリアに(鮮明に)高速で撮影可能であり、かつ高距離分解能を実現できる画像センシングを実現すべく、上記実施形態を発案した。   Therefore, the inventor has devised the above-described embodiment in order to realize image sensing that enables clear (clear) high-speed imaging from the short-distance side to the long-distance side and high-resolution resolution.

1…走行体(移動体)、20…距離センサ(測距装置)、21…光源、29…イメージセンサ(撮像素子)、203…画像処理部(演算部)、204…同期制御部(制御部)。   DESCRIPTION OF SYMBOLS 1 ... Running body (moving body), 20 ... Distance sensor (ranging device), 21 ... Light source, 29 ... Image sensor (imaging element), 203 ... Image processing part (calculation part), 204 ... Synchronization control part (control part) ).

特許5110520号公報Japanese Patent No. 5110520 論文『Active Gated Imaging for Automotive Safety Applications』 BrightWay Vision社(SPIE IS&T /Vol.9407 94070F-18)Paper "Active Gated Imaging for Automotive Safety Applications" BrightWay Vision (SPIE IS & T /Vol.9407 94070F-18)

Claims (15)

光源と、
前記光源から射出され物体で反射された光を受光して光電変換する受光領域と、前記光電変換により生じた電荷を蓄積するための複数の電荷蓄積領域から成る電荷蓄積領域群と、前記電荷を排出するための電荷排出領域とを有する撮像素子と、
前記電荷の送り先を前記電荷排出領域と前記電荷蓄積領域群との間で切り替えることにより、前記光源の発光開始タイミングに対して前記電荷蓄積領域群へ前記電荷を送る期間を制御し、前記期間内の異なる複数の時間帯それぞれに生じた前記電荷を前記複数の電荷蓄積領域のいずれかへ送る制御部と、
前記複数の電荷蓄積領域の電荷蓄積量に基づいて、前記期間に対応する距離範囲に存在する前記物体までの距離を算出する演算部と、を備える測距装置。
A light source;
A light receiving region for receiving and photoelectrically converting light emitted from the light source and reflected by an object, a charge storage region group including a plurality of charge storage regions for storing charges generated by the photoelectric conversion, and the charge An image pickup device having a charge discharge region for discharging;
By switching the charge destination between the charge discharge region and the charge accumulation region group, a period during which the charge is sent to the charge accumulation region group with respect to the light emission start timing of the light source is controlled. A controller that sends the charge generated in each of a plurality of different time zones to any one of the plurality of charge accumulation regions;
A distance measuring apparatus comprising: an arithmetic unit that calculates a distance to the object existing in a distance range corresponding to the period based on a charge accumulation amount of the plurality of charge accumulation regions.
前記制御部は、制御信号を用いて前記発光開始タイミングから前記期間の開始タイミングまでの時間である遅延時間を制御し、
前記演算部は、前記遅延時間と、前記時間帯の長さと、前記電荷蓄積量とを用いて前記距離を算出することを特徴とする請求項1に記載の測距装置。
The control unit controls a delay time that is a time from the light emission start timing to the start timing of the period using a control signal,
The distance measuring apparatus according to claim 1, wherein the calculation unit calculates the distance using the delay time, the length of the time zone, and the charge accumulation amount.
前記制御部は、複数の制御信号を用いて前記複数の時間帯を制御し、
前記期間の長さは、前記複数の時間帯の長さを合算した長さであることを特徴とする請求項1又は2に記載の測距装置。
The control unit controls the plurality of time zones using a plurality of control signals,
The distance measuring apparatus according to claim 1, wherein the length of the period is a length obtained by adding the lengths of the plurality of time zones.
前記光源の発光期間と該発光期間に対応する前記期間の組をそれぞれが少なくとも1組含む、時間的に隣接する2つのフレーム間で、前記発光開始タイミングから前記期間の開始タイミングまでの時間が異なることを特徴とする請求項1〜3のいずれか一項に記載の測距装置。   The time from the light emission start timing to the period start timing differs between two temporally adjacent frames each including at least one set of the light emission period and the period corresponding to the light emission period. The distance measuring device according to any one of claims 1 to 3, wherein 前記2つのフレームの前記期間に対応する前記距離範囲は、一部重複していることを特徴とする請求項4に記載の測距装置。   The distance measuring apparatus according to claim 4, wherein the distance ranges corresponding to the periods of the two frames partially overlap. 前記2つのフレーム間で前記組の数が異なることを特徴とする請求項4又は5に記載の測距装置。   6. The distance measuring device according to claim 4, wherein the number of the sets is different between the two frames. 前記2つのフレームのうち前記時間が短い方のフレームは、前記時間が長い方のフレームよりも前記組の数が少ないことを特徴とする請求項4〜6のいずれか一項に記載の測距装置。   The distance measurement according to any one of claims 4 to 6, wherein the frame having the shorter time among the two frames has a smaller number of the sets than the frame having the longer time. apparatus. 前記2つのフレームのうち前記時間が短い方のフレームは、前記時間が長い方のフレームよりも前記発光期間の長さが短いことを特徴とする請求項4〜7のいずれか一項に記載の測距装置。   8. The frame according to claim 4, wherein the shorter one of the two frames has a shorter light emission period than the longer frame. 9. Distance measuring device. 前記撮像素子は、2次元アレイ状に配置された複数の受光部を含むことを特徴とする請求項1〜8のいずれか一項に記載の測距装置。   The distance measuring device according to claim 1, wherein the image pickup device includes a plurality of light receiving portions arranged in a two-dimensional array. 前記撮像素子は、単一の受光部を含むことを特徴とする請求項1〜8のいずれか一項に記載の測距装置。   The distance measuring device according to claim 1, wherein the image sensor includes a single light receiving unit. 請求項1〜10のいずれか一項に記載の測距装置を有する監視装置。   A monitoring device comprising the distance measuring device according to claim 1. 請求項1〜10のいずれか一項に記載の測距装置を有する3次元計測装置。   A three-dimensional measuring device comprising the distance measuring device according to claim 1. 請求項1〜10のいずれか一項に記載の測距装置を有する移動体。   A moving body comprising the distance measuring device according to claim 1. 請求項1〜10のいずれか一項に記載の測距装置を有するロボット。   A robot having the distance measuring device according to claim 1. 光源と、複数の電荷蓄積領域から成る電荷蓄積領域群及び電荷排出領域を有する撮像素子とを用いる測距方法であって、
前記光源から射出され物体で反射された光を前記撮像素子で受光し光電変換により生じた電荷を前記電荷排出領域に送る工程と、
前記電荷を前記電荷蓄積領域群に送る工程と、を含み、
前記電荷蓄積領域群に送る工程では、所定期間内の異なる複数の時間帯それぞれに生じた前記電荷を前記複数の電荷蓄積領域のいずれかへ送り、
前記複数の電荷蓄積領域の電荷蓄積量に基づいて、前記所定期間に対応する距離範囲に存在する前記物体までの距離を算出する工程を更に含む測距方法。
A distance measuring method using a light source and an image sensor having a charge accumulation region group and a charge discharge region composed of a plurality of charge accumulation regions,
Receiving the light emitted from the light source and reflected by the object with the imaging device and sending the charge generated by photoelectric conversion to the charge discharge region;
Sending the charge to the charge storage region group;
In the step of sending to the charge accumulation region group, the charge generated in each of a plurality of different time zones within a predetermined period is sent to any of the plurality of charge accumulation regions,
A distance measuring method further comprising a step of calculating a distance to the object existing in a distance range corresponding to the predetermined period based on a charge accumulation amount of the plurality of charge accumulation regions.
JP2017085819A 2017-04-25 2017-04-25 Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance Withdrawn JP2018185179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085819A JP2018185179A (en) 2017-04-25 2017-04-25 Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085819A JP2018185179A (en) 2017-04-25 2017-04-25 Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance

Publications (1)

Publication Number Publication Date
JP2018185179A true JP2018185179A (en) 2018-11-22

Family

ID=64355845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085819A Withdrawn JP2018185179A (en) 2017-04-25 2017-04-25 Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance

Country Status (1)

Country Link
JP (1) JP2018185179A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020178920A1 (en) * 2019-03-01 2020-09-10 株式会社ブルックマンテクノロジ Distance image capturing device and distance image capturing method using distance image capturing device
CN112180388A (en) * 2019-07-05 2021-01-05 日立乐金光科技株式会社 Three-dimensional distance measuring device
CN112799081A (en) * 2019-11-14 2021-05-14 日立乐金光科技株式会社 Distance measuring device
CN114096886A (en) * 2019-06-25 2022-02-25 国立大学法人静冈大学 Distance image measuring device
CN114175618A (en) * 2019-08-01 2022-03-11 布鲁克曼科技株式会社 Distance image capturing apparatus and distance image capturing method
CN115219988A (en) * 2021-04-19 2022-10-21 日立乐金光科技株式会社 Distance measuring device and control method thereof
WO2023286542A1 (en) * 2021-07-16 2023-01-19 ヌヴォトンテクノロジージャパン株式会社 Object detection device and object detection method
WO2024111239A1 (en) * 2022-11-22 2024-05-30 株式会社デンソー Control device, optical detection system, control method, and control program
WO2024204561A1 (en) * 2023-03-30 2024-10-03 ヌヴォトンテクノロジージャパン株式会社 Object detecting device, object detecting system, and object detecting method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300616A (en) * 2005-04-18 2006-11-02 Matsushita Electric Works Ltd Space information detection system
JP2006322834A (en) * 2005-05-19 2006-11-30 Nikon Corp Distance measuring instrument and distance measuring method
WO2010098454A1 (en) * 2009-02-27 2010-09-02 パナソニック電工株式会社 Distance measuring apparatus
WO2011033971A1 (en) * 2009-09-15 2011-03-24 本田技研工業株式会社 Distance measuring apparatus, distance measuring method, and program
JP2013076645A (en) * 2011-09-30 2013-04-25 Stanley Electric Co Ltd Distance image generation apparatus and distance image generation method
JP5585903B2 (en) * 2008-07-30 2014-09-10 国立大学法人静岡大学 Distance image sensor and method for generating imaging signal by time-of-flight method
WO2014207983A1 (en) * 2013-06-27 2014-12-31 パナソニックIpマネジメント株式会社 Distance measuring device
WO2016075885A1 (en) * 2014-11-11 2016-05-19 パナソニックIpマネジメント株式会社 Distance detection device and distance detection method
JP2016206135A (en) * 2015-04-28 2016-12-08 浜松ホトニクス株式会社 Distance measuring device
WO2016208214A1 (en) * 2015-06-24 2016-12-29 株式会社村田製作所 Distance sensor
WO2017022219A1 (en) * 2015-08-04 2017-02-09 パナソニックIpマネジメント株式会社 Solid state image pickup device driving method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300616A (en) * 2005-04-18 2006-11-02 Matsushita Electric Works Ltd Space information detection system
JP2006322834A (en) * 2005-05-19 2006-11-30 Nikon Corp Distance measuring instrument and distance measuring method
JP5585903B2 (en) * 2008-07-30 2014-09-10 国立大学法人静岡大学 Distance image sensor and method for generating imaging signal by time-of-flight method
WO2010098454A1 (en) * 2009-02-27 2010-09-02 パナソニック電工株式会社 Distance measuring apparatus
WO2011033971A1 (en) * 2009-09-15 2011-03-24 本田技研工業株式会社 Distance measuring apparatus, distance measuring method, and program
JP2013076645A (en) * 2011-09-30 2013-04-25 Stanley Electric Co Ltd Distance image generation apparatus and distance image generation method
WO2014207983A1 (en) * 2013-06-27 2014-12-31 パナソニックIpマネジメント株式会社 Distance measuring device
WO2016075885A1 (en) * 2014-11-11 2016-05-19 パナソニックIpマネジメント株式会社 Distance detection device and distance detection method
JP2016206135A (en) * 2015-04-28 2016-12-08 浜松ホトニクス株式会社 Distance measuring device
WO2016208214A1 (en) * 2015-06-24 2016-12-29 株式会社村田製作所 Distance sensor
WO2017022219A1 (en) * 2015-08-04 2017-02-09 パナソニックIpマネジメント株式会社 Solid state image pickup device driving method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544544A (en) * 2019-03-01 2021-10-22 布鲁克曼科技株式会社 Distance image capturing device and distance image capturing method implemented by distance image capturing device
WO2020178920A1 (en) * 2019-03-01 2020-09-10 株式会社ブルックマンテクノロジ Distance image capturing device and distance image capturing method using distance image capturing device
JP6825164B1 (en) * 2019-03-01 2021-02-03 株式会社ブルックマンテクノロジ Distance image imaging method using a distance image imaging device and a distance image imaging device
US11336854B2 (en) 2019-03-01 2022-05-17 Brookman Technology, Inc. Distance image capturing apparatus and distance image capturing method using distance image capturing apparatus
CN114096886A (en) * 2019-06-25 2022-02-25 国立大学法人静冈大学 Distance image measuring device
JP7257275B2 (en) 2019-07-05 2023-04-13 株式会社日立エルジーデータストレージ 3D distance measuring device
JP2021012091A (en) * 2019-07-05 2021-02-04 株式会社日立エルジーデータストレージ Three-dimensional distance measurement device
CN112180388A (en) * 2019-07-05 2021-01-05 日立乐金光科技株式会社 Three-dimensional distance measuring device
CN114175618A (en) * 2019-08-01 2022-03-11 布鲁克曼科技株式会社 Distance image capturing apparatus and distance image capturing method
EP4009073A4 (en) * 2019-08-01 2023-07-12 Brookman Technology, Inc. Distance-image capturing apparatus and distance-image capturing method
US11982750B2 (en) 2019-08-01 2024-05-14 Toppan Inc. Distance-image capturing apparatus and distance-image capturing method
CN112799081A (en) * 2019-11-14 2021-05-14 日立乐金光科技株式会社 Distance measuring device
CN112799081B (en) * 2019-11-14 2024-05-14 日立乐金光科技株式会社 Distance measuring device
CN115219988A (en) * 2021-04-19 2022-10-21 日立乐金光科技株式会社 Distance measuring device and control method thereof
WO2023286542A1 (en) * 2021-07-16 2023-01-19 ヌヴォトンテクノロジージャパン株式会社 Object detection device and object detection method
JP7220835B1 (en) * 2021-07-16 2023-02-10 ヌヴォトンテクノロジージャパン株式会社 Object detection device and object detection method
WO2024111239A1 (en) * 2022-11-22 2024-05-30 株式会社デンソー Control device, optical detection system, control method, and control program
WO2024204561A1 (en) * 2023-03-30 2024-10-03 ヌヴォトンテクノロジージャパン株式会社 Object detecting device, object detecting system, and object detecting method

Similar Documents

Publication Publication Date Title
JP2018185179A (en) Distance measuring device, monitoring device, three-dimensional measuring device, mobile body, robot, and method for measuring distance
US11448757B2 (en) Distance measuring device
EP3789792B1 (en) Method for subtracting background light from an exposure value of a pixel in an imaging array, and pixel for use in same
US20210118926A1 (en) Distance-measuring imaging device, distance measuring method of distance-measuring imaging device, and solid-state imaging device
CN109725326B (en) Time-of-flight camera
US10764518B2 (en) Pixel structure
CN109791207B (en) System and method for determining distance to an object
EP2815251B1 (en) Time of flight camera with stripe illumination
TWI780462B (en) Distance video camera device and distance video camera method
EP3865911B1 (en) Sensor fusion system, synchronization control device, and synchronization control method
JP2018077071A (en) Distance measuring device, monitoring camera, three-dimensional measurement device, moving body, robot, method for setting condition of driving light source, and method for measuring distance
JP6665873B2 (en) Photo detector
KR20180073571A (en) System and method for determining distance to an object
CN114424086A (en) Processing system for LIDAR measurements
KR20200096828A (en) Systems and methods for determining distance to objects
JP2018077143A (en) Distance measuring device, moving body, robot, three-dimensional measurement device, monitoring camera, and method for measuring distance
JP6894775B2 (en) Distance measurement system and its control method
US20180106599A1 (en) Distance-measuring apparatus, surveillance camera, three-dimensional measuring device, mobile object, robot, and distance-measuring method
CN111164457A (en) Laser ranging module, device and method and mobile platform
US20230078063A1 (en) Distance measurement device and distance measurement system
JP2009276248A (en) Laser radar device
Villa et al. 3d spad camera for advanced driver assistance
EP4382960A1 (en) Guided flash lidar
US20230204727A1 (en) Distance measurement device and distance measurement method
JP2024010778A (en) distance measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20220708