JP2021110679A - Ranging sensor, ranging system, and electronic device - Google Patents

Ranging sensor, ranging system, and electronic device Download PDF

Info

Publication number
JP2021110679A
JP2021110679A JP2020003768A JP2020003768A JP2021110679A JP 2021110679 A JP2021110679 A JP 2021110679A JP 2020003768 A JP2020003768 A JP 2020003768A JP 2020003768 A JP2020003768 A JP 2020003768A JP 2021110679 A JP2021110679 A JP 2021110679A
Authority
JP
Japan
Prior art keywords
distance measuring
control unit
light
lighting device
measuring sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020003768A
Other languages
Japanese (ja)
Inventor
久美子 馬原
Kumiko Umahara
久美子 馬原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020003768A priority Critical patent/JP2021110679A/en
Priority to PCT/JP2020/049096 priority patent/WO2021145212A1/en
Publication of JP2021110679A publication Critical patent/JP2021110679A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Abstract

To enable high-speed control, such as switching of light emission conditions, of an illumination device.SOLUTION: A ranging sensor provided herein comprises: a pixel array unit consisting of two-dimensionally arranged pixels configured to receive reflection of irradiation light emitted from an illumination device and reflected by an object, and output a detection signal corresponding to intensity of the received light; and a control unit configured to control emission of light by the illumination device by setting multiple values to parameters of the illumination device according to a measurement start instruction from another device. The technique disclosed herein can be applied, for example, to ranging modules for measuring distance to an object.SELECTED DRAWING: Figure 15

Description

本技術は、測距センサ、測距システム、および、電子機器に関し、特に、発光条件の切り替え等の照明装置の制御を高速に行うことができるようにした測距センサ、測距システム、および、電子機器に関する。 This technology relates to distance measurement sensors, distance measurement systems, and electronic devices, and in particular, distance measurement sensors, distance measurement systems, and distance measurement systems that enable high-speed control of lighting devices such as switching of light emission conditions. Regarding electronic devices.

近年、半導体技術の進歩により、物体までの距離を測定する測距モジュールの小型化が進んでいる。これにより、例えば、通信機能を備えた小型の情報処理装置である、いわゆるスマートフォンなどのモバイル端末に測距モジュールを搭載することが実現されている。 In recent years, advances in semiconductor technology have led to miniaturization of distance measuring modules that measure the distance to an object. As a result, for example, it has been realized that a distance measuring module is mounted on a mobile terminal such as a so-called smartphone, which is a small information processing device having a communication function.

測距モジュールにおける測距方法としては、例えば、indirect ToF(Time of Flight)方式が挙げられる。indirect ToF方式は、物体に向かって照射光が発光され、その照射光が物体の表面で反射されて返ってくる反射光を検出し、照射光が発光されてから反射光が受光されるまでの飛行時間に基づいて物体までの距離を算出する方式である。 As a distance measuring method in the distance measuring module, for example, an indirect ToF (Time of Flight) method can be mentioned. In the indirect ToF method, the irradiation light is emitted toward the object, the reflected light is reflected on the surface of the object and returned, and the light is emitted until the reflected light is received. This method calculates the distance to an object based on the flight time.

飛行時間を計測するため、反射光を受光する測距センサ側から、照射光を発光する照明装置に発光パルスを出力することで、照射光の発光のタイミングが制御される(例えば、特許文献1参照)。 In order to measure the flight time, the timing of emission of the irradiation light is controlled by outputting an emission pulse from the distance measuring sensor side that receives the reflected light to the illumination device that emits the irradiation light (for example, Patent Document 1). reference).

国際公開第2019/044487号International Publication No. 2019/0444487

測距センサが発光パルスを出力するのに対して、上位のホストが発光強度等のキャリブレーションを行っていたため一定程度の時間が必要であった。 While the distance measuring sensor outputs a light emission pulse, a certain amount of time is required because the host at the upper level calibrates the light emission intensity and the like.

本技術は、このような状況に鑑みてなされたものであり、発光条件の切り替え等の照明装置の制御を高速に行うことができるようにするものである。 The present technology has been made in view of such a situation, and enables high-speed control of the lighting device such as switching of light emission conditions.

本技術の第1の側面の測距センサは、照明装置から照射された照射光が物体で反射されて返ってきた反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部とを備える。 In the distance measuring sensor on the first side of the present technology, the pixels that receive the reflected light that is reflected by the object and return the irradiation light emitted from the lighting device and output the detection signal according to the amount of light received are two-dimensional. An arranged pixel array unit and a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.

本技術の第2の側面の測距システムは、物体に照射光を照射する照明装置と、前記照射光が前記物体で反射されて返ってきた反射光を受光する測距センサとを備え、前記測距センサは、前記反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部とを備える。 The distance measuring system on the second side of the present technology includes a lighting device that irradiates an object with irradiation light, and a distance measuring sensor that receives the reflected light that is reflected by the object and returned. The distance measuring sensor is attached to the lighting device based on a pixel array unit in which pixels that receive the reflected light and output a detection signal according to the amount of received light are arranged in two dimensions and a measurement start instruction from another device. , A control unit that sequentially sets a plurality of values of parameters and controls light emission of the lighting device is provided.

本技術の第3の側面の電子機器は、物体に照射光を照射する照明装置と、前記照射光が前記物体で反射されて返ってきた反射光を受光する測距センサとを備え、前記測距センサは、前記反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部とを備える測距システムを備える。 The electronic device on the third aspect of the present technology includes a lighting device that irradiates an object with irradiation light, and a distance measuring sensor that receives the reflected light that is reflected by the object and returned. The distance sensor receives the reflected light and outputs a detection signal according to the amount of received light to the lighting device based on a pixel array unit in which pixels are arranged in two dimensions and a measurement start instruction from another device. A distance measuring system including a control unit that sequentially sets a plurality of values of parameters and controls light emission of the lighting device is provided.

本技術の第1乃至第3の側面においては、他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値が順次設定され、前記照明装置の発光が制御される。 In the first to third aspects of the present technology, a plurality of values of parameters are sequentially set in the lighting device based on a measurement start instruction from another device, and light emission of the lighting device is controlled.

測距センサ、測距システム及び電子機器は、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。 The distance measuring sensor, the distance measuring system, and the electronic device may be independent devices or may be modules incorporated in other devices.

本技術を適用した測距システムの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the distance measurement system to which this technology is applied. indirect ToF方式の測距原理を説明する図である。It is a figure explaining the distance measurement principle of an indirect ToF method. indirect ToF方式の測距原理を説明する図である。It is a figure explaining the distance measurement principle of an indirect ToF method. 照明装置と測距センサの詳細構成例を示すブロック図である。It is a block diagram which shows the detailed configuration example of a lighting device and a distance measuring sensor. 画素アレイ部の詳細を説明する図である。It is a figure explaining the detail of the pixel array part. 照射光の切り替えの例を説明する図である。It is a figure explaining an example of switching of irradiation light. 照射光の切り替えの例を説明する図である。It is a figure explaining an example of switching of irradiation light. 測定モードにおおける測定例を示す図である。It is a figure which shows the measurement example in the measurement mode. 測定モードにおける測定処理を説明するフローチャートである。It is a flowchart explaining the measurement process in a measurement mode. キャリブレーションモードにおける測距システムの測定環境を示すブロック図である。It is a block diagram which shows the measurement environment of the distance measurement system in the calibration mode. キャリブレーションモードにおけるパラメータの制御例を示す図である。It is a figure which shows the control example of a parameter in a calibration mode. キャリブレーションモードにおけるパラメータのその他の制御例を示す図である。It is a figure which shows the other control example of a parameter in a calibration mode. キャリブレーションモードにおいて調整されるパラメータの例を説明する図である。It is a figure explaining the example of the parameter adjusted in a calibration mode. キャリブレーションモードにおいて調整されるパラメータの例を説明する図である。It is a figure explaining the example of the parameter adjusted in a calibration mode. キャリブレーションモードにおける照明装置と測距センサの詳細構成例を示すブロック図である。It is a block diagram which shows the detailed configuration example of a lighting apparatus and a distance measuring sensor in a calibration mode. キャリブレーションモードにおける測定処理を説明するフローチャートである。It is a flowchart explaining the measurement process in a calibration mode. キャリブレーションモードにおける照明装置と測距センサの詳細構成例を示すブロック図である。It is a block diagram which shows the detailed configuration example of a lighting apparatus and a distance measuring sensor in a calibration mode. 測定中のキャリブレーション処理を説明する図である。It is a figure explaining the calibration process during measurement. 距離測定中のキャリブレーション処理を説明するフローチャートである。It is a flowchart explaining the calibration process during distance measurement. 測距センサのチップ構成例を示す斜視図である。It is a perspective view which shows the chip structure example of the distance measuring sensor. 比較例としての他の発光制御方法を行う測距システムのブロック図である。It is a block diagram of the distance measuring system which performs another light emission control method as a comparative example. 他の発光制御方法と比較した効果を説明する図である。It is a figure explaining the effect as compared with other light emission control methods. 本技術を適用した電子機器の構成例を示すブロック図である。It is a block diagram which shows the structural example of the electronic device to which this technology is applied. 車両制御システムの概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the schematic structure of a vehicle control system. 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.

以下、添付図面を参照しながら、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。説明は以下の順序で行う。
1.測距システムの概略構成例
2.indirect ToF方式の測距原理
3.測距センサと照明装置の構成例
4.測定モードの実行例
5.キャリブレーションモードの実行例
6.キャリブレーションモードにおける装置構成例
7.測定中のキャリブレーション処理
8.測距センサのチップ構成例
9.他の発光制御方法との比較
10.電子機器への適用例
11.移動体への応用例
Hereinafter, embodiments for carrying out the present technology (hereinafter referred to as embodiments) will be described with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted. The explanation will be given in the following order.
1. 1. Schematic configuration example of the ranging system 2. Indirect To F method distance measurement principle 3. Configuration example of distance measuring sensor and lighting device 4. Execution example of measurement mode 5. Execution example of calibration mode 6. Example of device configuration in calibration mode 7. Calibration process during measurement 8. Example of chip configuration of distance measuring sensor 9. Comparison with other light emission control methods 10. Application example to electronic devices 11. Application example to mobile

<1.測距システムの概略構成例>
図1は、本技術を適用した測距システムの構成例を示すブロック図である。
<1. Schematic configuration example of distance measurement system>
FIG. 1 is a block diagram showing a configuration example of a distance measuring system to which the present technology is applied.

測距システム1は、照明装置11と、測距センサ12とで構成され、測距システム1が組み込まれているホスト装置の制御部であるホスト制御部13からの指示にしたがい、被写体としての所定の物体までの距離を測定し、測距データをホスト制御部13に出力する。 The distance measuring system 1 is composed of a lighting device 11 and a distance measuring sensor 12, and is designated as a subject according to an instruction from a host control unit 13 which is a control unit of a host device in which the distance measuring system 1 is incorporated. The distance to the object is measured, and the distance measurement data is output to the host control unit 13.

より具体的には、照明装置11は、例えば、光源として赤外線レーザダイオードなどを有し、測距センサ12から供給される発光パルスと発光条件とに基づいて、被写体としての所定の物体に対して照射光を照射する。発光パルスは、発光(オンオフ)のタイミングを示す所定の変調周波数(例えば、20MHzなど)のパルス信号であり、発光条件は、例えば、発光強度、照射エリア、照射方式などの光源設定情報を含む。照明装置11は、測距センサ12から供給された発光条件で、発光パルスに応じて変調しながら発光する。 More specifically, the lighting device 11 has, for example, an infrared laser diode as a light source, and with respect to a predetermined object as a subject based on a light emitting pulse and a light emitting condition supplied from the distance measuring sensor 12. Irradiate the irradiation light. The emission pulse is a pulse signal having a predetermined modulation frequency (for example, 20 MHz) indicating the timing of emission (on / off), and the emission condition includes, for example, light source setting information such as emission intensity, irradiation area, and irradiation method. The lighting device 11 emits light while being modulated according to the light emission pulse under the light emitting conditions supplied from the distance measuring sensor 12.

測距センサ12は、測距の開始を表す測距開始トリガと、発光条件とを、ホスト制御部13から取得し、取得した発光条件を照明装置11に供給するとともに、発光パルスを生成して照明装置11に供給し、照明装置11の発光を制御する。 The distance measuring sensor 12 acquires a distance measuring start trigger indicating the start of distance measurement and a light emitting condition from the host control unit 13, supplies the acquired light emitting condition to the lighting device 11, and generates a light emitting pulse. It supplies to the lighting device 11 and controls the light emission of the lighting device 11.

また、測距センサ12は、生成した発光パルスに基づいて、照明装置11から照射された照射光が物体で反射されて返ってきた反射光を受光し、受光結果に基づいて測距データを生成し、ホスト制御部13に出力する。 Further, the distance measuring sensor 12 receives the reflected light that is reflected by the object and returned from the irradiation light emitted from the lighting device 11 based on the generated emission pulse, and generates the distance measuring data based on the received light reception result. Then, it is output to the host control unit 13.

ホスト制御部13は、測距システム1が組み込まれているホスト装置全体を制御し、照明装置11が照射光を照射する際の発光条件と、測距の開始を表す測距開始トリガとを、測距センサ12へ供給する。測距開始トリガに対応して、測距データが、測距センサ12から供給される。ホスト制御部13は、例えば、ホスト装置に搭載されたCPU(central processing unit),MPU(microprocessor unit),FPGA(field-programmable gate array))などの演算装置またはその演算装置上で動作するアプリケーションプログラムで構成される。また例えば、ホスト装置がスマートフォンで構成される場合、ホスト制御部13は、AP(application processor)またはそこで動作するアプリケーションプログラムなどで構成される。 The host control unit 13 controls the entire host device in which the distance measurement system 1 is incorporated, and sets a light emitting condition when the lighting device 11 irradiates the irradiation light and a distance measurement start trigger indicating the start of distance measurement. It is supplied to the distance measuring sensor 12. Distance measurement data is supplied from the distance measurement sensor 12 in response to the distance measurement start trigger. The host control unit 13 is, for example, an arithmetic unit such as a CPU (central processing unit), an MPU (microprocessor unit), an FPGA (field-programmable gate array)) mounted on the host apparatus, or an application program that operates on the arithmetic unit. Consists of. Further, for example, when the host device is composed of a smartphone, the host control unit 13 is composed of an AP (application processor) or an application program running on the AP (application processor).

以上のように構成される測距システム1は、indirect ToF(Time of Flight)方式、direct ToF方式、Structured Light方式などの所定の測距方式を用いて、反射光の受光結果に基づいて測距を行う。indirect ToF方式は、照射光が発光されてから反射光が受光されるまでの飛行時間を位相差として検出し、物体までの距離を算出する方式である。direct ToF方式は、照射光が発光されてから反射光が受光されるまでの飛行時間を直接計測し、物体までの距離を算出する方式である。Structured Light方式は、照射光としてパターン光を照射し、受光されるパターンの歪みに基づいて物体までの距離を算出する方式である。 The distance measuring system 1 configured as described above uses a predetermined distance measuring method such as an indirect ToF (Time of Flight) method, a direct ToF method, and a Structured Light method, and measures the distance based on the received light reception result of the reflected light. I do. The indirect ToF method is a method of calculating the distance to an object by detecting the flight time from when the irradiation light is emitted to when the reflected light is received as a phase difference. The direct ToF method is a method of directly measuring the flight time from when the irradiation light is emitted to when the reflected light is received and calculating the distance to the object. The Structured Light method is a method in which pattern light is irradiated as irradiation light and the distance to an object is calculated based on the distortion of the received pattern.

測距システム1が実行する測距方式は、特に限定されないが、以下では、測距システム1がindirect ToF方式による測距を行う場合を例に、測距システム1の具体的動作を説明する。 The distance measuring method executed by the distance measuring system 1 is not particularly limited, but the specific operation of the distance measuring system 1 will be described below by taking as an example the case where the distance measuring system 1 performs the distance measuring by the indirect ToF method.

<2.indirect ToF方式の測距原理>
初めに、図2および図3を参照して、indirect ToF方式の測距原理について簡単に説明する。
<2. Indirect To F method distance measurement principle>
First, the distance measurement principle of the indirect ToF method will be briefly described with reference to FIGS. 2 and 3.

測距システム1から物体までの距離に相当するデプス値d[mm]は、以下の式(1)で計算することができる。

Figure 2021110679
The depth value d [mm] corresponding to the distance from the distance measuring system 1 to the object can be calculated by the following equation (1).
Figure 2021110679

式(1)のΔtは、照明装置11から出射された照射光が物体に反射して測距センサ12に入射するまでの時間であり、cは、光速を表す。 Δt in the formula (1) is the time until the irradiation light emitted from the lighting device 11 is reflected by the object and is incident on the distance measuring sensor 12, and c is the speed of light.

照明装置11から照射される照射光には、図2に示されるような、所定の変調周波数fで高速にオンオフを繰り返す発光パターンのパルス光が採用される。発光パターンの1周期Tは1/fとなる。測距センサ12では、照明装置11から測距センサ12に到達するまでの時間Δtに応じて、反射光(受光パターン)の位相がずれて検出される。この発光パターンと受光パターンとの位相のずれ量(位相差)をφとすると、時間Δtは、下記の式(2)で算出することができる。

Figure 2021110679
As the irradiation light emitted from the illumination device 11, pulsed light having a light emission pattern that repeats on / off at a high speed at a predetermined modulation frequency f is adopted as shown in FIG. One cycle T of the light emission pattern is 1 / f. In the distance measuring sensor 12, the reflected light (light receiving pattern) is detected out of phase according to the time Δt from the lighting device 11 to the distance measuring sensor 12. Assuming that the amount of phase shift (phase difference) between the light emitting pattern and the light receiving pattern is φ, the time Δt can be calculated by the following equation (2).
Figure 2021110679

したがって、測距システム1から物体までのデプス値dは、式(1)と式(2)とから、下記の式(3)で算出することができる。

Figure 2021110679
Therefore, the depth value d from the distance measuring system 1 to the object can be calculated from the equations (1) and (2) by the following equation (3).
Figure 2021110679

次に、上述の位相差φの算出手法について説明する。 Next, the above-mentioned method for calculating the phase difference φ will be described.

測距センサ12に形成された画素アレイの各画素は、変調周波数に対応して高速にON/OFFを繰り返し、ON期間のみの電荷を蓄積する。 Each pixel of the pixel array formed in the distance measuring sensor 12 repeats ON / OFF at high speed corresponding to the modulation frequency, and accumulates electric charges only during the ON period.

測距センサ12は、画素アレイの各画素のON/OFFの実行タイミングを順次切り替えて、各実行タイミングにおける電荷を蓄積し、蓄積電荷に応じた検出信号を出力する。 The distance measuring sensor 12 sequentially switches the ON / OFF execution timing of each pixel of the pixel array, accumulates the electric charge at each execution timing, and outputs a detection signal according to the accumulated electric charge.

ON/OFFの実行タイミングには、たとえば、位相0度、位相90度、位相180度、および、位相270度の4種類がある。 There are four types of ON / OFF execution timings, for example, phase 0 degree, phase 90 degree, phase 180 degree, and phase 270 degree.

位相0度の実行タイミングは、画素アレイの各画素のONタイミング(受光タイミング)を、照明装置11が出射するパルス光の位相、すなわち発光パターンと同じ位相とするタイミングである。 The execution timing of the phase 0 degree is a timing at which the ON timing (light receiving timing) of each pixel of the pixel array is set to the phase of the pulsed light emitted by the lighting device 11, that is, the same phase as the light emission pattern.

位相90度の実行タイミングは、画素アレイの各画素のONタイミング(受光タイミング)を、照明装置11が出射するパルス光(発光パターン)から90度遅れた位相とするタイミングである。 The execution timing of the phase 90 degrees is a timing in which the ON timing (light receiving timing) of each pixel of the pixel array is set to a phase delayed by 90 degrees from the pulsed light (emission pattern) emitted by the lighting device 11.

位相180度の実行タイミングは、画素アレイの各画素のONタイミング(受光タイミング)を、照明装置11が出射するパルス光(発光パターン)から180度遅れた位相とするタイミングである。 The execution timing of the phase 180 degrees is a timing in which the ON timing (light receiving timing) of each pixel of the pixel array is set to a phase 180 degrees behind the pulsed light (emission pattern) emitted by the lighting device 11.

位相270度の実行タイミングは、画素アレイの各画素のONタイミング(受光タイミング)を、照明装置11が出射するパルス光(発光パターン)から270度遅れた位相とするタイミングである。 The execution timing of the phase 270 degrees is a timing in which the ON timing (light receiving timing) of each pixel of the pixel array is set to a phase delayed by 270 degrees from the pulsed light (emission pattern) emitted by the illumination device 11.

測距センサ12は、例えば、位相0度、位相90度、位相180度、位相270度の順番で受光タイミングを順次切り替え、各受光タイミングにおける反射光の受光量(蓄積電荷)を取得する。図2では、各位相の受光タイミング(ONタイミング)において、反射光が入射されるタイミングに斜線が付されている。 For example, the distance measuring sensor 12 sequentially switches the light receiving timing in the order of phase 0 degree, phase 90 degree, phase 180 degree, and phase 270 degree, and acquires the light receiving amount (accumulated charge) of the reflected light at each light receiving timing. In FIG. 2, in the light receiving timing (ON timing) of each phase, the timing at which the reflected light is incident is shaded.

図2に示されるように、受光タイミングを、位相0度、位相90度、位相180度、および、位相270度としたときに蓄積された電荷を、それぞれ、Q、Q90、Q180、および、Q270とすると、位相差φは、Q、Q90、Q180、および、Q270を用いて、下記の式(4)で算出することができる。

Figure 2021110679
As shown in FIG. 2, when the light receiving timing is set to phase 0 degree, phase 90 degree, phase 180 degree, and phase 270 degree, the accumulated charges are Q 0 , Q 90 , Q 180 , respectively. and, when Q 270, the phase difference φ, Q 0, Q 90, Q 180 and, using a Q 270, can be calculated by the following equation (4).
Figure 2021110679

式(4)で算出された位相差φを上記の式(3)に入力することにより、測距システム1から物体までのデプス値dを算出することができる。 By inputting the phase difference φ calculated by the equation (4) into the above equation (3), the depth value d from the distance measuring system 1 to the object can be calculated.

また、信頼度confは、各画素で受光した光の強度を表す値であり、例えば、以下の式(5)で計算することができる。

Figure 2021110679
Further, the reliability conf is a value representing the intensity of the light received by each pixel, and can be calculated by, for example, the following equation (5).
Figure 2021110679

測距センサ12は、画素アレイの画素ごとに供給される検出信号に基づいて、測距システム1から物体までの距離であるデプス値dを算出する。そして、各画素の画素値としてデプス値dが格納されたデプスマップと、各画素の画素値として信頼度confが格納された信頼度マップとが生成されて、外部へ出力される。 The distance measuring sensor 12 calculates the depth value d, which is the distance from the distance measuring system 1 to the object, based on the detection signal supplied for each pixel of the pixel array. Then, a depth map in which the depth value d is stored as the pixel value of each pixel and a reliability map in which the reliability conf is stored as the pixel value of each pixel are generated and output to the outside.

測距センサ12は、後述するように、画素アレイの各画素に電荷蓄積部を2つ備える。この2つの電荷蓄積部を、第1タップと第2タップと呼ぶこととすると、第1タップと第2タップの2つの電荷蓄積部に交互に電荷を蓄積させることにより、例えば、位相0度と位相180度のように、位相が反転した2つの受光タイミングの検出信号を1フレームで取得することができる。 As will be described later, the distance measuring sensor 12 includes two charge storage units in each pixel of the pixel array. Assuming that these two charge storage units are referred to as a first tap and a second tap, by alternately accumulating charges in the two charge storage units of the first tap and the second tap, for example, the phase is 0 degree. It is possible to acquire the detection signals of two light receiving timings whose phases are inverted, such as 180 degrees in phase, in one frame.

ここで、測距センサ12は、2Phase方式または4Phase方式のいずれかの方式で、デプスマップと信頼度マップとを生成し、出力する。 Here, the distance measuring sensor 12 generates and outputs a depth map and a reliability map by either a 2Phase method or a 4Phase method.

図3の上段は、2Phase方式のデプスマップの生成を示している。 The upper part of FIG. 3 shows the generation of the depth map of the 2 Phase method.

2Phase方式では、図3の上段に示されるように、第1のフレームにおいて、位相0度と位相180度の検出信号を取得し、次の第2のフレームにおいて、位相90度と位相270度の検出信号を取得することで、4位相の検出信号を取得することができるので、式(3)によりデプス値dを算出することができる。 In the 2Phase method, as shown in the upper part of FIG. 3, the detection signals having a phase of 0 degrees and a phase of 180 degrees are acquired in the first frame, and in the next second frame, the phases are 90 degrees and 270 degrees. Since the detection signal of four phases can be acquired by acquiring the detection signal, the depth value d can be calculated by the equation (3).

2Phase方式において、位相0度と位相180度、または、位相90度と位相270度の検出信号を生成する単位(1フレーム)をマイクロフレームと呼ぶと、2マイクロフレームで4位相のデータが揃うので、2枚のマイクロフレームのデータで画素単位にデプス値dを算出することができる。このデプス値dを各画素の画素値として格納したフレームをデプスフレームと称することとすると、1デプスフレームは、2マイクロフレームで構成される。 In the 2Phase method, if the unit (1 frame) for generating the detection signal of 0 degree and 180 degree phase or 90 degree phase and 270 degree phase is called a microframe, the data of 4 phases are prepared in 2 microframes. The depth value d can be calculated for each pixel from the data of two microframes. Assuming that a frame in which this depth value d is stored as a pixel value of each pixel is referred to as a depth frame, one depth frame is composed of two microframes.

さらに、測距センサ12では、発光強度や変調周波数などの発光条件を変えて、複数枚のデプスフレームを取得し、それら複数枚のデプスフレームを用いて、最終的なデプスマップが生成される。すなわち、1枚のデプスマップは、複数枚のデプスフレームを用いて生成される。図3の例では、3枚のデプスフレームを用いてデプスマップが生成されている。なお、1枚のデプスフレームを、そのままデプスマップとして出力してもよい。すなわち、1枚のデプスマップを、1枚のデプスフレームで構成することもできる。 Further, the ranging sensor 12 acquires a plurality of depth frames by changing the light emission conditions such as the light emission intensity and the modulation frequency, and uses the plurality of depth frames to generate a final depth map. That is, one depth map is generated by using a plurality of depth frames. In the example of FIG. 3, a depth map is generated using three depth frames. One depth frame may be output as it is as a depth map. That is, one depth map can be composed of one depth frame.

図3の下段は、4Phase方式のデプスマップの生成を示している。 The lower part of FIG. 3 shows the generation of the depth map of the 4 Phase method.

4Phase方式では、図3の下段に示されるように、第1のフレームと第2のフレームに続いて、第3のフレームにおいて、位相180度と位相0度の検出信号が取得され、次の第4のフレームにおいて、位相270度と位相90度の検出信号が取得される。すなわち、第1タップと第2タップのそれぞれで、位相0度、位相90度、位相180度、および、位相270度の4位相すべての検出信号が取得され、式(3)によりデプス値dが算出される。したがって、4Phase方式では、1デプスフレームは、4マイクロフレームで構成され、1枚のデプスマップは、発光条件を変えた複数枚のデプスフレームを用いて生成される。 In the 4Phase method, as shown in the lower part of FIG. 3, following the first frame and the second frame, in the third frame, the detection signals of 180 degrees and 0 degrees of phase are acquired, and the next third frame. In the 4th frame, the detection signals having a phase of 270 degrees and a phase of 90 degrees are acquired. That is, the detection signals of all four phases of phase 0 degree, phase 90 degree, phase 180 degree, and phase 270 degree are acquired at each of the first tap and the second tap, and the depth value d is calculated by the equation (3). It is calculated. Therefore, in the 4Phase method, one depth frame is composed of four microframes, and one depth map is generated by using a plurality of depth frames with different light emission conditions.

4Phase方式は、4位相すべての検出信号を各タップ(第1タップと第2タップ)で取得することができるので、各画素に存在するタップ間の特性ばらつき、すなわち、タップ間の感度差を除去することができる。 In the 4-Phase method, the detection signals of all four phases can be acquired by each tap (first tap and second tap), so that the characteristic variation between taps existing in each pixel, that is, the sensitivity difference between taps is eliminated. can do.

一方、2Phase方式は、2枚のマイクロフレームのデータで物体までのデプス値dを求めることができるので、4Phase方式の2倍のフレームレートで測距を行うことができる。タップ間の特性ばらつきは、ゲインやオフセット等の補正パラメータで調整される。 On the other hand, in the 2Phase method, the depth value d to the object can be obtained from the data of two microframes, so that the distance can be measured at a frame rate twice that of the 4Phase method. The characteristic variation between taps is adjusted by correction parameters such as gain and offset.

測距センサ12は、2Phase方式または4Phase方式のどちらで駆動することもできるが、以下では簡単のため、2Phase方式で駆動するものとして説明する。 The distance measuring sensor 12 can be driven by either the 2Phase method or the 4Phase method, but for the sake of simplicity, it will be described below as being driven by the 2Phase method.

<3.測距センサと照明装置の構成例>
図4は、照明装置11と測距センサ12の詳細構成例を示すブロック図である。なお、図4には、理解を容易にするため、ホスト制御部13も図示されている。
<3. Configuration example of distance measuring sensor and lighting device>
FIG. 4 is a block diagram showing a detailed configuration example of the lighting device 11 and the distance measuring sensor 12. Note that FIG. 4 also shows a host control unit 13 for easy understanding.

測距センサ12は、制御部31、発光タイミング制御部32、画素変調部33、画素制御部34、画素アレイ部35、カラム処理部36、データ処理部37、出力IF38、および、入出力端子39−1ないし39−5を備える。 The distance measuring sensor 12 includes a control unit 31, a light emission timing control unit 32, a pixel modulation unit 33, a pixel control unit 34, a pixel array unit 35, a column processing unit 36, a data processing unit 37, an output IF 38, and an input / output terminal 39. -1 to 39-5.

照明装置11は、発光制御部51、発光源52、並びに、入出力端子53−1および53−2を備える。 The lighting device 11 includes a light emitting control unit 51, a light emitting source 52, and input / output terminals 53-1 and 53-2.

測距センサ12の制御部31には、ホスト制御部13から、入出力端子39−1を介して発光条件が供給されるとともに、入出力端子39−2を介して測距開始トリガが供給される。制御部31は、発光条件と測距開始トリガとに基づいて、測距センサ12全体の動作と、照明装置11とを制御する。 The host control unit 13 supplies light emission conditions to the control unit 31 of the distance measurement sensor 12 via the input / output terminals 39-1, and supplies a distance measurement start trigger via the input / output terminals 39-2. NS. The control unit 31 controls the operation of the entire distance measuring sensor 12 and the lighting device 11 based on the light emitting condition and the distance measuring start trigger.

より具体的には、制御部31は、ホスト制御部13から供給される発光条件に基づいて、発光条件の一部である、発光強度、照射エリア、照射方式などの情報を、光源設定情報として、照明装置11へ入出力端子39−3を介して供給する。 More specifically, the control unit 31 uses information such as the light emission intensity, the irradiation area, and the irradiation method, which are a part of the light emission conditions, as the light source setting information based on the light emission conditions supplied from the host control unit 13. , Is supplied to the lighting device 11 via the input / output terminals 39-3.

また、制御部31は、ホスト制御部13から供給される発光条件に基づいて、発光条件の一部である、発光期間と変調周波数の情報を、発光タイミング制御部32に供給する。発光期間は、1位相当たりの露光時間を表す。 Further, the control unit 31 supplies the light emission timing control unit 32 with information on the light emission period and the modulation frequency, which is a part of the light emission conditions, based on the light emission conditions supplied from the host control unit 13. The light emission period represents the exposure time per phase.

さらに、制御部31は、照明装置11へ供給する照射エリアや照射方式などに対応して、画素アレイ部35の受光エリアを含む駆動制御情報を、画素制御部34、カラム処理部36、および、データ処理部37に供給する。 Further, the control unit 31 transmits the drive control information including the light receiving area of the pixel array unit 35 to the pixel control unit 34, the column processing unit 36, and the column processing unit 36 in accordance with the irradiation area and the irradiation method supplied to the lighting device 11. It is supplied to the data processing unit 37.

発光タイミング制御部32は、制御部31から供給される、発光期間と変調周波数の情報に基づいて、発光パルスを生成し、入出力端子39−4を介して照明装置11へ供給する。発光パルスは、制御部31から供給された変調周波数のパルス信号となり、発光パルスの1マイクロフレームにおけるHigh期間の積分時間が、制御部31から供給された発光期間となる。発光パルスは、ホスト制御部13からの測距開始トリガに応じたタイミングで、入出力端子39−4を介して照明装置11へ供給される。 The light emission timing control unit 32 generates a light emission pulse based on the information of the light emission period and the modulation frequency supplied from the control unit 31, and supplies the light emission pulse to the lighting device 11 via the input / output terminals 39-4. The light emission pulse becomes a pulse signal having a modulation frequency supplied from the control unit 31, and the integration time of the high period in one microframe of the light emission pulse becomes the light emission period supplied from the control unit 31. The light emitting pulse is supplied to the lighting device 11 via the input / output terminals 39-4 at the timing corresponding to the distance measurement start trigger from the host control unit 13.

また、発光タイミング制御部32は、発光パルスに同期して反射光を受光するための受光パルスを生成し、画素変調部33に供給する。受光パルスは、上述したように、発光パルスに対して、位相0度、位相90度、位相180度、または位相270度のいずれかの位相だけ遅れたパルス信号となる。 Further, the light emission timing control unit 32 generates a light receiving pulse for receiving the reflected light in synchronization with the light emitting pulse, and supplies the light receiving pulse to the pixel modulation unit 33. As described above, the light receiving pulse is a pulse signal whose phase is delayed by any one of phase 0 degrees, phase 90 degrees, phase 180 degrees, and phase 270 degrees with respect to the light emitting pulse.

画素変調部33は、発光タイミング制御部32から供給される受光パルスに基づいて、画素アレイ部35の各画素の第1タップと第2タップへの電荷蓄積動作の切り替えを行う。 The pixel modulation unit 33 switches the charge storage operation between the first tap and the second tap of each pixel of the pixel array unit 35 based on the light receiving pulse supplied from the light emission timing control unit 32.

画素制御部34は、制御部31から供給される駆動制御情報に基づいて、画素アレイ部35の各画素の蓄積電荷のリセット動作、読み出し動作などの制御を行う。例えば、画素制御部34は、制御部31から駆動制御情報の一部として供給される受光エリアに対応して、全画素からなる受光領域の一部の領域のみを部分駆動させることができる。また例えば、画素制御部34は、受光エリアの各画素の検出信号を所定間隔で間引いたり、複数画素の検出信号を加算(画素加算)する制御も行うことができる。 The pixel control unit 34 controls the reset operation, the read operation, and the like of the accumulated charge of each pixel of the pixel array unit 35 based on the drive control information supplied from the control unit 31. For example, the pixel control unit 34 can partially drive only a part of the light receiving area including all the pixels, corresponding to the light receiving area supplied from the control unit 31 as a part of the drive control information. Further, for example, the pixel control unit 34 can also perform control such as thinning out the detection signals of each pixel in the light receiving area at predetermined intervals and adding (pixel addition) the detection signals of a plurality of pixels.

画素アレイ部35は、行列状に2次元配置された複数の画素71(図5)を備える。画素アレイ部35の各画素71は、画素変調部33と画素制御部34の制御にしたがって反射光を受光し、受光量に応じた検出信号を、カラム処理部36に供給する。 The pixel array unit 35 includes a plurality of pixels 71 (FIG. 5) arranged two-dimensionally in a matrix. Each pixel 71 of the pixel array unit 35 receives reflected light under the control of the pixel modulation unit 33 and the pixel control unit 34, and supplies a detection signal according to the amount of received light to the column processing unit 36.

ここで、図5を参照して、画素アレイ部35の詳細について説明する。 Here, the details of the pixel array unit 35 will be described with reference to FIG.

画素アレイ部35には、図5に示されるように、複数の画素71が行列状に2次元配置されている。 As shown in FIG. 5, a plurality of pixels 71 are two-dimensionally arranged in a matrix in the pixel array unit 35.

画素71は、フォトダイオード81と、第1タップに相当する電荷蓄積部であるFD(Floating Diffusion)部82Aと、第2タップに相当する電荷蓄積部であるFD(Floating Diffusion)部82Bとを備える。 The pixel 71 includes a photodiode 81, an FD (Floating Diffusion) unit 82A which is a charge storage unit corresponding to the first tap, and an FD (Floating Diffusion) unit 82B which is a charge storage unit corresponding to the second tap. ..

さらに、画素71は、第1タップとしてのFD部82Aへの電荷蓄積を制御する複数の画素トランジスタである、転送トランジスタ83A、選択トランジスタ84A、および、リセットトランジスタ85Aと、第2タップとしてのFD部82Bへの電荷蓄積を制御する複数の画素トランジスタである、転送トランジスタ83B、選択トランジスタ84B、および、リセットトランジスタ85Bとを備える。 Further, the pixel 71 includes a transfer transistor 83A, a selection transistor 84A, and a reset transistor 85A, which are a plurality of pixel transistors that control charge accumulation in the FD unit 82A as the first tap, and an FD unit as the second tap. It includes a transfer transistor 83B, a selection transistor 84B, and a reset transistor 85B, which are a plurality of pixel transistors that control charge accumulation in the 82B.

画素71の動作について説明する。 The operation of the pixel 71 will be described.

初めに、露光開始前の余分な電荷をリセットするリセット動作が行われる。具体的には、画素制御部34が、振り分け信号GDAおよびGDBと、リセット信号RSAおよびRSBをHighに制御し、第1タップ側の転送トランジスタ83Aおよびリセットトランジスタ85Aと、第2タップ側の転送トランジスタ83Bおよびリセットトランジスタ85Bとをオンさせる。これにより、FD部82AとFD部82Bに蓄積されていた電荷がリセットされるとともに、フォトダイオード81の蓄積電荷がリセットされる。リセット動作終了後、転送トランジスタ83Aおよびリセットトランジスタ85Aと、第2タップ側の転送トランジスタ83Bおよびリセットトランジスタ85Bとは、オフに戻される。 First, a reset operation is performed to reset the excess charge before the start of exposure. Specifically, the pixel control unit 34 controls the distribution signals GDA and GDB and the reset signals RSA and RSB to High, and the transfer transistor 83A and the reset transistor 85A on the first tap side and the transfer transistor on the second tap side. Turn on the 83B and the reset transistor 85B. As a result, the electric charges accumulated in the FD unit 82A and the FD unit 82B are reset, and the accumulated electric charges of the photodiode 81 are reset. After the reset operation is completed, the transfer transistor 83A and the reset transistor 85A and the transfer transistor 83B and the reset transistor 85B on the second tap side are turned off.

次に、露光動作が開始される。具体的には、画素変調部33が、受光パルスに同期して振り分け信号GDAおよびGDBを交互にHighに制御し、第1タップ側の転送トランジスタ83Aと、第2タップ側の転送トランジスタ83Bとを、交互にオンする。これにより、フォトダイオード81で発生した電荷が、第1タップとしてのFD部82A、または、第2タップとしてのFD部82Bに振り分けられる。フォトダイオード81で発生した電荷の第1タップまたは第2タップへの振り分け動作が、1マイクロフレームの発光期間に相当する時間、周期的に繰り返される。転送トランジスタ83Aを介して転送された電荷はFD部82Aに順次蓄積され、転送トランジスタ83Bを介して転送された電荷はFD部82Bに順次蓄積される。 Next, the exposure operation is started. Specifically, the pixel modulation unit 33 alternately controls the distribution signals GDA and GDB to High in synchronization with the received pulse, and transfers the transfer transistor 83A on the first tap side and the transfer transistor 83B on the second tap side. , Turn on alternately. As a result, the electric charge generated by the photodiode 81 is distributed to the FD unit 82A as the first tap or the FD unit 82B as the second tap. The operation of distributing the electric charge generated by the photodiode 81 to the first tap or the second tap is periodically repeated for a time corresponding to the light emission period of one microframe. The charges transferred via the transfer transistor 83A are sequentially stored in the FD unit 82A, and the charges transferred via the transfer transistor 83B are sequentially stored in the FD unit 82B.

そして、露光期間終了後、画素制御部34が、選択信号ROAおよびROBをHighに制御することにより、第1タップであるFD部82Aの蓄積電荷に応じた検出信号と、第2タップであるFD部82Bの蓄積電荷に応じた検出信号が、カラム処理部36に出力される。すなわち、選択信号ROAに従って選択トランジスタ84Aがオンとなると、FD部82Aに蓄積されている電荷の電荷量に応じた検出信号Aが、信号線86Aを介して画素71から出力される。同様に、選択信号ROBに従って選択トランジスタ84Bがオンとなると、FD部82Bに蓄積されている電荷の電荷量に応じた検出信号Bが、信号線86Bを介して画素71から出力される。 Then, after the end of the exposure period, the pixel control unit 34 controls the selection signals ROA and ROB to High, so that the detection signal corresponding to the accumulated charge of the FD unit 82A, which is the first tap, and the FD, which is the second tap. A detection signal corresponding to the accumulated charge of the unit 82B is output to the column processing unit 36. That is, when the selection transistor 84A is turned on according to the selection signal ROA, the detection signal A corresponding to the amount of electric charge stored in the FD unit 82A is output from the pixel 71 via the signal line 86A. Similarly, when the selection transistor 84B is turned on according to the selection signal ROB, the detection signal B corresponding to the amount of electric charge stored in the FD unit 82B is output from the pixel 71 via the signal line 86B.

このように、画素71は、フォトダイオード81が受光した反射光により発生する電荷を、遅延時間ΔTに応じて第1タップまたは第2タップに振り分けて、検出信号Aおよび検出信号Bを出力する。この検出信号Aおよび検出信号Bは、上述した位相0度、位相90度、位相180度、および、位相270度の4位相のいずれかの検出信号となっている。 In this way, the pixel 71 distributes the electric charge generated by the reflected light received by the photodiode 81 to the first tap or the second tap according to the delay time ΔT, and outputs the detection signal A and the detection signal B. The detection signal A and the detection signal B are any of the four phases of phase 0 degree, phase 90 degree, phase 180 degree, and phase 270 degree described above.

図4の説明に戻り、カラム処理部36は、複数のAD(Analog to Digital)変換部を備え、画素アレイ部35の画素列単位に設けられたAD変換部が、対応する画素列の所定の画素71から出力される検出信号に対して、ノイズ除去処理とAD変換処理を行う。AD変換処理後の検出信号が、データ処理部37に供給される。 Returning to the description of FIG. 4, the column processing unit 36 includes a plurality of AD (Analog to Digital) conversion units, and the AD conversion unit provided for each pixel column of the pixel array unit 35 has a predetermined corresponding pixel sequence. Noise removal processing and AD conversion processing are performed on the detection signal output from the pixel 71. The detection signal after the AD conversion process is supplied to the data processing unit 37.

データ処理部37は、カラム処理部36から供給されるAD変換後の各画素71の検出信号に基づいて、各画素71のデプス値dを算出し、各画素の画素値としてデプス値dが格納されたデプスフレームを生成する。さらに、データ処理部37は、1以上のデプスフレームを用いて、デプスマップを生成する。また、データ処理部37は、各画素71の検出信号に基づいて信頼度confを算出し、各画素の画素値として信頼度confが格納されたデプスフレームに対応する信頼度フレームと、デプスマップに対応する信頼度マップも生成する。データ処理部37は、生成したデプスマップと信頼度マップを出力IF38に供給する。 The data processing unit 37 calculates the depth value d of each pixel 71 based on the detection signal of each pixel 71 after AD conversion supplied from the column processing unit 36, and stores the depth value d as the pixel value of each pixel. Generates the depth frame. Further, the data processing unit 37 uses one or more depth frames to generate a depth map. Further, the data processing unit 37 calculates the reliability conf based on the detection signal of each pixel 71, and sets the reliability frame corresponding to the depth frame in which the reliability conf is stored as the pixel value of each pixel and the depth map. It also generates a corresponding confidence map. The data processing unit 37 supplies the generated depth map and reliability map to the output IF 38.

出力IF38は、データ処理部37から供給されるデプスマップと信頼度マップとを、入出力端子39−5の信号フォーマット(例えば、MIPI:Mobile Industry Processor Interface)に変換し、入出力端子39−5から出力する。入出力端子39−5から出力されたデプスマップと信頼度マップは、測距データとしてホスト制御部13に供給される。 The output IF 38 converts the depth map and the reliability map supplied from the data processing unit 37 into the signal format of the input / output terminals 39-5 (for example, MIPI: Mobile Industry Processor Interface), and the input / output terminals 39-5. Output from. The depth map and reliability map output from the input / output terminals 39-5 are supplied to the host control unit 13 as distance measurement data.

図4において、入出力端子39−1ないし39−5と、入出力端子53−1および53−2は、説明の便宜上、複数に分かれているが、複数の入出力接点を有する1つの端子(端子群)で構成してもよい。また、SPI(Serial Peripheral Interface)や、I2C(Inter-Integrated Circuit)等のシリアル通信を用いて、発光条件や光源設定情報を設定することも可能である。SPIまたはI2Cのシリアル通信を用いた場合、測距センサ12は、マスタ側として動作し、照明装置11に対して任意のタイミングで光源設定情報を設定することができる。SPIやI2C等のシリアル通信を用いることにより、レジスタを用いて複雑かつ詳細な設定が可能となる。 In FIG. 4, the input / output terminals 39-1 to 39-5 and the input / output terminals 53-1 and 53-2 are divided into a plurality of input / output terminals 53-1 and 53-2 for convenience of explanation, but one terminal having a plurality of input / output contacts ( It may be composed of terminal groups). It is also possible to set light emission conditions and light source setting information using serial communication such as SPI (Serial Peripheral Interface) or I2C (Inter-Integrated Circuit). When SPI or I2C serial communication is used, the distance measuring sensor 12 operates as the master side, and the light source setting information can be set to the lighting device 11 at an arbitrary timing. By using serial communication such as SPI or I2C, complicated and detailed settings can be made using registers.

照明装置11の発光制御部51は、レーザドライバ等で構成され、入出力端子53−1および53−2を介して測距センサ12から供給される光源設定情報と発光パルスとに基づいて、発光源52を駆動する。 The light emission control unit 51 of the lighting device 11 is composed of a laser driver or the like, and emits light based on the light source setting information and the light emission pulse supplied from the distance measuring sensor 12 via the input / output terminals 53-1 and 53-2. Drives the source 52.

発光源52は、例えば、VCSEL(Vertical Cavity Surface Emitting Laser:垂直共振器面発光レーザ)等のレーザ光源を1つ以上備える。発光源52は、発光制御部51の駆動制御に従い、所定の発光強度、照射エリア、照射方式、変調周波数、および、発光期間で、照射光を発光する。 The light emitting source 52 includes, for example, one or more laser light sources such as a VCSEL (Vertical Cavity Surface Emitting Laser). The light emitting source 52 emits irradiation light in a predetermined light emitting intensity, irradiation area, irradiation method, modulation frequency, and light emitting period according to the drive control of the light emitting control unit 51.

図6および図7は、例えば、発光源52が、発光特性の異なる3種類のレーザ光源LD1ないしLD3を備えているものとして、発光制御部51による照射光の切り替えの例を示している。 6 and 7 show an example of switching the irradiation light by the light emission control unit 51, assuming that the light emitting source 52 includes three types of laser light sources LD1 to LD3 having different light emitting characteristics.

図6のAは、発光制御部51が、照射光の照射方式を切り替える例を示している。 FIG. 6A shows an example in which the light emission control unit 51 switches the irradiation method of the irradiation light.

具体的には、発光制御部51は、所定の照射エリアを所定の輝度範囲内で均一な発光強度で照射する面照射を行う第1のレーザ光源LD1と、所定の間隔で配置された複数のスポット(円)を照射エリアとするスポット照射を行う第2のレーザ光源LD2とを切り替えている。 Specifically, the light emission control unit 51 includes a first laser light source LD1 that irradiates a predetermined irradiation area with a uniform light emission intensity within a predetermined brightness range, and a plurality of laser light sources LD1 arranged at predetermined intervals. The second laser light source LD2 that performs spot irradiation with the spot (circle) as the irradiation area is switched.

図6のBは、発光制御部51が、照射光の発光強度を切り替える例を示している。 FIG. 6B shows an example in which the light emission control unit 51 switches the light emission intensity of the irradiation light.

具体的には、発光制御部51は、所定の発光強度(標準の発光強度)で面照射を行う第1のレーザ光源LD1と、第1のレーザ光源LD1よりも発光強度を大に設定した面照射を行う第3のレーザ光源LD3とを切り替えている。 Specifically, the light emission control unit 51 has a first laser light source LD1 that performs surface irradiation with a predetermined light emission intensity (standard light emission intensity) and a surface whose light emission intensity is set to be larger than that of the first laser light source LD1. It is switched to the third laser light source LD3 that performs irradiation.

なお、発光強度の変更は、レーザ光源LDを切り替える方法の他、1つのレーザ光源LD(例えば、レーザ光源LD1)に供給する電圧を変更する方法でも可能である。 The emission intensity can be changed by a method of switching the laser light source LD or a method of changing the voltage supplied to one laser light source LD (for example, the laser light source LD1).

図7のAは、発光制御部51が、照射光の照射エリアを切り替える例を示している。 FIG. 7A shows an example in which the light emission control unit 51 switches the irradiation area of the irradiation light.

具体的には、発光制御部51は、第1のレーザ光源LD1が照射可能な全エリアを照射する全面照射と、照射エリアを一部に限定した部分照射とを切り替えている。部分照射の照射エリアは、例えば、照射可能な全エリアの中央部分とされている。照射エリアは、例えば、第1のレーザ光源LD1の前に配置された拡散板または投影レンズを駆動することにより、変更することができる。あるいはまた、第1のレーザ光源LD1が複数の発光素子で構成される場合、発光させる発光素子を一部に限定することで照射エリアを絞ることができる。 Specifically, the light emission control unit 51 switches between full-scale irradiation that irradiates the entire area that can be irradiated by the first laser light source LD1 and partial irradiation that limits the irradiation area to a part. The irradiation area for partial irradiation is, for example, the central portion of the entire area that can be irradiated. The irradiation area can be changed, for example, by driving a diffuser plate or a projection lens arranged in front of the first laser light source LD1. Alternatively, when the first laser light source LD1 is composed of a plurality of light emitting elements, the irradiation area can be narrowed down by limiting the light emitting elements to emit light.

図7のBは、発光制御部51が、照射光の変調周波数を切り替える例を示している。 FIG. 7B shows an example in which the light emission control unit 51 switches the modulation frequency of the irradiation light.

具体的には、発光制御部51は、第1のレーザ光源LD1を用いて、変調周波数20MHzで発光させる照射と、変調周波数100MHzで発光させる照射とを切り替えている。変調周波数の変更は、測距センサ12から供給される発光パルスの周波数の変更によって実現される。 Specifically, the light emission control unit 51 uses the first laser light source LD1 to switch between irradiation that emits light at a modulation frequency of 20 MHz and irradiation that emits light at a modulation frequency of 100 MHz. The change of the modulation frequency is realized by changing the frequency of the emission pulse supplied from the distance measuring sensor 12.

図6および図7で説明した例は、1つの発光条件のみを切り替える例であるが、勿論、複数の発光条件を任意に組み合わせて同時に変更することも可能である。例えば、発光強度と変調周波数を同時に切り替えたり、発光強度と照射エリアを同時に切り替える、などが可能である。 The examples described with reference to FIGS. 6 and 7 are examples in which only one light emitting condition is switched, but of course, a plurality of light emitting conditions can be arbitrarily combined and changed at the same time. For example, it is possible to switch the emission intensity and the modulation frequency at the same time, or to switch the emission intensity and the irradiation area at the same time.

また、発光させるレーザ光源LDの数は1つに限らず、2つ以上を同時に発光させてもよい。例えば、標準の発光強度の第1のレーザ光源LD1と、それよりも発光強度が大きい第3のレーザ光源LD3とを同時に発光させることにより、第3のレーザ光源LD3のみよりもさらに発光強度を大にした照射が可能である。 Further, the number of laser light source LDs to emit light is not limited to one, and two or more may be emitted at the same time. For example, by simultaneously emitting the first laser light source LD1 having a standard emission intensity and the third laser light source LD3 having a higher emission intensity, the emission intensity is further increased than that of the third laser light source LD3 alone. It is possible to irradiate the laser.

<4.測定モードの実行例>
測距システム1は、動作モードとして、キャリブレーションモードと、測定モードとを有する。キャリブレーションモードでは、測距システム1は、例えば、照明装置11の発光タイミングと測距センサ12の受光タイミングの同期を調整したり、発光強度の調整を行う。測定モードでは、ホスト制御部13からの測定開始指示(測距開始トリガ)にしたがい、所定の物体までの距離が実際に測定される。キャリブレーションモードは、例えば、測距システム1を出荷する前の出荷検査時や、測定モードによる測定が行われない期間(アイドルタイム)等に実行される。
<4. Measurement mode execution example>
The ranging system 1 has a calibration mode and a measurement mode as operation modes. In the calibration mode, the distance measuring system 1 adjusts, for example, the synchronization of the light emitting timing of the lighting device 11 and the light receiving timing of the distance measuring sensor 12, and adjusts the light emitting intensity. In the measurement mode, the distance to a predetermined object is actually measured according to the measurement start instruction (distance measurement start trigger) from the host control unit 13. The calibration mode is executed, for example, at the time of shipping inspection before shipping the ranging system 1, or during a period (idle time) during which measurement by the measurement mode is not performed.

以下では、最初に、動作モードが測定モードである場合に実行される、測距システム1による測定実施例について説明する。キャリブレーションモードの動作については、測定モードの後に説明するが、測定モードが実行される場合には、少なくとも出荷前に、キャリブレーションモードによるキャリブレーション処理が実施されているものとする。 In the following, first, a measurement embodiment by the distance measuring system 1 that is executed when the operation mode is the measurement mode will be described. The operation of the calibration mode will be described after the measurement mode, but when the measurement mode is executed, it is assumed that the calibration process in the calibration mode is performed at least before shipping.

図8は、測定モードにおいて測距システム1により実行される測定例のシーケンス図である。 FIG. 8 is a sequence diagram of a measurement example executed by the ranging system 1 in the measurement mode.

測距センサ12には、ホスト制御部13から測距開始トリガが供給される前に、複数の発光条件からなるセットの発光条件が供給される。そして、測距センサ12は、1セットの発光条件を取得した後、ホスト制御部13から測距開始トリガが供給されると、ホスト制御部13から指定された複数の発光条件を、順次、照明装置11に設定し、指定された発光条件に基づく測定(受光動作)を行う。 Before the distance measurement start trigger is supplied from the host control unit 13, the distance measurement sensor 12 is supplied with a set of light emission conditions including a plurality of light emission conditions. Then, when the distance measurement start trigger is supplied from the host control unit 13 after acquiring one set of light emission conditions, the distance measurement sensor 12 sequentially illuminates a plurality of light emission conditions designated by the host control unit 13. It is set in the device 11 and performs measurement (light receiving operation) based on the specified light emitting condition.

図8には、3種類の発光条件A、B、およびCを1セットとする発光条件が、ホスト制御部13から測距センサ12に供給され、測距センサ12が、3種類の発光条件A、B、およびCを順次照明装置11に設定しながら、測定を行う例が示されている。ここで、発光条件Aは、例えば、標準の発光強度で変調周波数20MHzの全面照射を行う条件であり、発光条件Bは、例えば、標準の発光強度で変調周波数20MHzのスポット照射を行う条件であり、発光条件Cは、例えば、発光強度大で変調周波数20MHzの全面照射を行う条件とする。 In FIG. 8, a light emitting condition in which three types of light emitting conditions A, B, and C are set is supplied from the host control unit 13 to the distance measuring sensor 12, and the distance measuring sensor 12 supplies the three types of light emitting conditions A. , B, and C are sequentially set in the lighting device 11, and an example of performing measurement is shown. Here, the light emission condition A is, for example, a condition for performing full-scale irradiation at a modulation frequency of 20 MHz with a standard light emission intensity, and the light emission condition B is, for example, a condition for performing spot irradiation with a standard light emission intensity at a modulation frequency of 20 MHz. The light emission condition C is, for example, a condition in which the entire surface is irradiated with a large light emission intensity and a modulation frequency of 20 MHz.

図8は、測距センサ12が、3種類の発光条件A、B、Cで3枚のデプスフレームを生成し、3枚のデプスフレームから1つのデプスマップを生成して出力する例を示している。1枚のデプスフレームに必要なマイクロフレームの数は、2Phase方式の場合、2枚であるので、合計6枚のマイクロフレームで1つのデプスマップが生成される。 FIG. 8 shows an example in which the distance measuring sensor 12 generates three depth frames under three types of light emission conditions A, B, and C, and generates and outputs one depth map from the three depth frames. There is. Since the number of microframes required for one depth frame is two in the case of the 2Phase method, one depth map is generated with a total of six microframes.

具体的には、ホスト制御部13から測距開始トリガが供給されると、測距センサ12の制御部31および発光タイミング制御部32は、初めに、発光条件Aに対応する光源設定情報と発光パルスを照明装置11へ出力し、発光条件Aによる照射光の発光を行わせるとともに、受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光を開始する。 Specifically, when the distance measurement start trigger is supplied from the host control unit 13, the control unit 31 and the light emission timing control unit 32 of the distance measurement sensor 12 first emit light source setting information and light emission corresponding to the light emission condition A. The pulse is output to the illumination device 11 to emit the irradiation light under the light emission condition A, and the light receiving pulse is issued to drive each pixel 71 of the pixel array unit 35 to start receiving light.

測距センサ12は、所定のセンサ起動動作(StartUp)に続いて、発光条件Aにおける反射光を受光し、位相0度と位相180度の第1マイクロフレームを生成し、次に、位相90度と位相270度の第2マイクロフレームを生成する。そして、測距センサ12は、第1マイクロフレームと第2マイクロフレームとに基づいて、第1デプスフレームを生成する。 Following the predetermined sensor start operation (StartUp), the distance measuring sensor 12 receives the reflected light under the light emission condition A to generate a first microframe having a phase of 0 degrees and a phase of 180 degrees, and then a phase of 90 degrees. And generate a second microframe with a phase of 270 degrees. Then, the distance measuring sensor 12 generates a first depth frame based on the first microframe and the second microframe.

続いて、測距センサ12の制御部31および発光タイミング制御部32は、発光条件Bに対応する光源設定情報と発光パルスを照明装置11へ出力し、発光条件Bで照射光の発光を行わせるとともに、受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光を開始する。 Subsequently, the control unit 31 and the light emission timing control unit 32 of the ranging sensor 12 output the light source setting information and the light emission pulse corresponding to the light emission condition B to the lighting device 11, and cause the irradiation light to be emitted under the light emission condition B. At the same time, a light receiving pulse is issued to drive each pixel 71 of the pixel array unit 35 to start light receiving.

測距センサ12は、所定のセンサ起動動作(StartUp)に続いて、発光条件Bにおける反射光を受光し、位相0度と位相180度の第1マイクロフレームを生成し、次に、位相90度と位相270度の第2マイクロフレームを生成する。そして、測距センサ12は、第1マイクロフレームと第2マイクロフレームとに基づいて、第2デプスフレームを生成する。 Following the predetermined sensor start operation (StartUp), the distance measuring sensor 12 receives the reflected light under the light emission condition B to generate a first microframe having a phase of 0 degrees and a phase of 180 degrees, and then a phase of 90 degrees. And generate a second microframe with a phase of 270 degrees. Then, the ranging sensor 12 generates a second depth frame based on the first microframe and the second microframe.

続いて、測距センサ12の制御部31および発光タイミング制御部32は、発光条件Cに対応する光源設定情報と発光パルスを照明装置11へ出力し、発光条件Cで照射光の発光を行わせるとともに、受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光を開始する。 Subsequently, the control unit 31 and the light emission timing control unit 32 of the ranging sensor 12 output the light source setting information and the light emission pulse corresponding to the light emission condition C to the lighting device 11, and cause the irradiation light to be emitted under the light emission condition C. At the same time, a light receiving pulse is issued to drive each pixel 71 of the pixel array unit 35 to start light receiving.

測距センサ12は、所定のセンサ起動動作(StartUp)に続いて、発光条件Cにおける反射光を受光し、位相0度と位相180度の第1マイクロフレームを生成し、次に、位相90度と位相270度の第2マイクロフレームを生成する。そして、測距センサ12は、第1マイクロフレームと第2マイクロフレームとに基づいて、第3デプスフレームを生成する。 Following the predetermined sensor start operation (StartUp), the distance measuring sensor 12 receives the reflected light under the light emission condition C to generate a first microframe having a phase of 0 degrees and a phase of 180 degrees, and then a phase of 90 degrees. And generate a second microframe with a phase of 270 degrees. Then, the distance measuring sensor 12 generates a third depth frame based on the first microframe and the second microframe.

続いて、測距センサ12は、第1ないし第3デプスフレームから、1つのデプスマップ(第1デプスマップ)と信頼度マップを生成し、入出力端子39−5を介してホスト制御部13へ出力する。 Subsequently, the distance measuring sensor 12 generates one depth map (first depth map) and a reliability map from the first to third depth frames, and sends them to the host control unit 13 via the input / output terminals 39-5. Output.

以上で1回の測距開始トリガに対応した動作が終了する。なお、反射光の受光結果に基づくマイクロフレームの生成、デプスフレームの生成、および、デプスマップの生成の処理は、データ処理部37で実行される。次の測距開始トリガに対応した駆動では、例えば、変調周波数が異なる発光条件により、デプスマップ(第2デプスマップ)が生成される。 This completes the operation corresponding to one distance measurement start trigger. The data processing unit 37 executes the processes of generating a microframe, generating a depth frame, and generating a depth map based on the result of receiving the reflected light. In the drive corresponding to the next distance measurement start trigger, for example, a depth map (second depth map) is generated under light emission conditions having different modulation frequencies.

以上のように、測距センサ12は、複数の発光条件からなるセットをホスト制御部13から取得しておき、デプスフレーム単位で、照明装置11の発光条件を順次切り替える制御を行いながら、受光動作(露光動作)を行うことができる。 As described above, the distance measuring sensor 12 acquires a set consisting of a plurality of light emitting conditions from the host control unit 13, and performs a light receiving operation while controlling the light emitting conditions of the lighting device 11 to be sequentially switched in depth frame units. (Exposure operation) can be performed.

測距センサ12は、自身の受光動作(露光動作)のタイミングを知っているので、自身の動作に合わせて照明装置11の発光条件を変更する制御を行うことができる。 Since the distance measuring sensor 12 knows the timing of its own light receiving operation (exposure operation), it can control to change the light emitting condition of the lighting device 11 according to its own operation.

<測定モードによる測定処理のフローチャート>
次に、図9のフローチャートを参照して、動作モードが測定モードである場合の測距システム1による測定処理について説明する。この処理は、例えば、ホスト制御部13から、発光条件が供給されたとき、開始される。
<Flowchart of measurement processing in measurement mode>
Next, the measurement process by the distance measuring system 1 when the operation mode is the measurement mode will be described with reference to the flowchart of FIG. This process is started, for example, when a light emitting condition is supplied from the host control unit 13.

初めに、ステップS1において、測距センサ12の制御部31は、ホスト制御部13から供給された、複数の発光条件からなるセットの発光条件を取得し、内部のメモリに記憶する。 First, in step S1, the control unit 31 of the distance measuring sensor 12 acquires a set of light emission conditions including a plurality of light emission conditions supplied from the host control unit 13 and stores them in the internal memory.

ステップS2において、制御部31は、発光条件の種類数を表す変数Nに、初期値としての1を代入する。 In step S2, the control unit 31 substitutes 1 as an initial value for the variable N representing the number of types of light emission conditions.

ステップS3において、制御部31は、ホスト制御部13から、測距開始トリガが供給されたかを判定し、測距開始トリガが供給されるまで待機する。 In step S3, the control unit 31 determines whether the distance measurement start trigger has been supplied from the host control unit 13, and waits until the distance measurement start trigger is supplied.

ステップS3で、測距開始トリガが供給されたと判定された場合、処理はステップS4に進み、制御部31は、第Nの発光条件で照明装置11に照射光の発光を行わせるとともに、自身による受光動作を開始する。より具体的には、制御部31は、第Nの発光条件に対応する光源設定情報と発光パルスを照明装置11へ出力するとともに、発光期間と変調周波数の情報を、発光タイミング制御部32に供給する。発光タイミング制御部32は、発光期間と変調周波数の情報に基づいて、発光パルスを生成し、照明装置11へ供給するとともに、受光パルスを画素変調部33に供給する。また、制御部31は、画素アレイ部35の受光エリアを含む駆動制御情報を、画素制御部34、カラム処理部36、および、データ処理部37に供給する。照明装置11は、測距センサ12からの光源設定情報と発光パルスとに基づいて、照射光を発光する。 If it is determined in step S3 that the distance measurement start trigger has been supplied, the process proceeds to step S4, and the control unit 31 causes the lighting device 11 to emit the irradiation light under the Nth light emission condition, and also by itself. The light receiving operation is started. More specifically, the control unit 31 outputs the light source setting information and the light emission pulse corresponding to the Nth light emission condition to the lighting device 11, and supplies the light emission period and the modulation frequency information to the light emission timing control unit 32. do. The light emission timing control unit 32 generates a light emission pulse based on the information of the light emission period and the modulation frequency, supplies the light emission pulse to the lighting device 11, and supplies the light reception pulse to the pixel modulation unit 33. Further, the control unit 31 supplies the drive control information including the light receiving area of the pixel array unit 35 to the pixel control unit 34, the column processing unit 36, and the data processing unit 37. The lighting device 11 emits irradiation light based on the light source setting information from the distance measuring sensor 12 and the light emitting pulse.

ステップS5において、画素アレイ部35の各画素71は、画素変調部33と画素制御部34の制御にしたがい、照明装置11から照射された照射光が物体で反射されて返ってきた反射光を受光し、受光量に応じた検出信号を画素単位にデータ処理部37に供給する。 In step S5, each pixel 71 of the pixel array unit 35 receives the reflected light that is reflected by the object and returned from the irradiation light emitted from the illumination device 11 in accordance with the control of the pixel modulation unit 33 and the pixel control unit 34. Then, a detection signal corresponding to the amount of received light is supplied to the data processing unit 37 in pixel units.

ステップS6において、データ処理部37は、各画素71の検出信号に基づいて、デプスフレームと信頼度フレームを算出する。 In step S6, the data processing unit 37 calculates the depth frame and the reliability frame based on the detection signal of each pixel 71.

ステップS7において、制御部31は、ホスト制御部13から供給された全ての発光条件で測定したかを判定する。 In step S7, the control unit 31 determines whether the measurement is performed under all the light emission conditions supplied from the host control unit 13.

ステップS7で、全ての発光条件でまだ測定していないと判定された場合、処理はステップS8に進み、制御部31は、発光条件の種類数を示す変数Nを1だけインクリメントし、処理をステップS4に戻す。これにより、上述したステップS4ないしS7が再度実行され、まだ測定していない発光条件が設定されて、受光動作が行われる。 If it is determined in step S7 that all the light emission conditions have not been measured yet, the process proceeds to step S8, and the control unit 31 increments the variable N indicating the number of types of light emission conditions by 1, and steps the process. Return to S4. As a result, the above-mentioned steps S4 to S7 are executed again, the light emitting conditions that have not been measured are set, and the light receiving operation is performed.

一方、ステップS7で、全ての発光条件で測定したと判定された場合、処理はステップS9に進み、データ処理部37は、複数の発光条件に対応する複数枚のデプスフレームから、1つのデプスマップと信頼度マップを生成し、測距データとして、ホスト制御部13へ出力する。 On the other hand, if it is determined in step S7 that the measurement is performed under all the light emission conditions, the process proceeds to step S9, and the data processing unit 37 starts from a plurality of depth frames corresponding to the plurality of light emission conditions to obtain one depth map. And a reliability map is generated and output to the host control unit 13 as distance measurement data.

以上で、動作モードが測定モードである場合の測定処理が終了する。 This completes the measurement process when the operation mode is the measurement mode.

以上のように、測距システム1は、測距開始トリガが供給される前に、複数の発光条件からなるセットの発光条件をホスト制御部13から取得し、ホスト制御部13から指定された複数の発光条件を、順次、照明装置11に設定し、指定された発光条件に基づく測定(受光動作)を行うことができる。発光条件を変更する度に、ホスト制御部13が変更指示を行う必要がないため、照明装置11の制御を高速に行うことができる。 As described above, the distance measuring system 1 acquires a set of light emitting conditions including a plurality of light emitting conditions from the host control unit 13 before the distance measuring start trigger is supplied, and a plurality of light emitting conditions designated by the host control unit 13. The light emitting conditions of the above can be sequentially set in the lighting device 11, and the measurement (light receiving operation) based on the designated light emitting conditions can be performed. Since it is not necessary for the host control unit 13 to give a change instruction every time the light emitting condition is changed, the lighting device 11 can be controlled at high speed.

なお、図8の例では、発光条件が変更されるタイミングがデプスフレーム単位とされていたが、マイクロフレーム単位で行うようにすることもできる。 In the example of FIG. 8, the timing at which the light emission condition is changed is set in the depth frame unit, but it can also be performed in the micro frame unit.

また、上述の測定処理では、複数の発光条件を取得し、測定を行う例について説明したが、1種類の発光条件のみを取得し、測定を行うことができることは言うまでもない。 Further, in the above-mentioned measurement process, an example in which a plurality of light emission conditions are acquired and measurement is performed has been described, but it goes without saying that only one type of light emission condition can be acquired and measurement can be performed.

<5.キャリブレーションモードの実行例>
次に、動作モードがキャリブレーションモードである場合の測距システム1の動作について説明する。なお、上述した測定モードと共通する部分の説明は適宜省略する。
<5. Calibration mode execution example>
Next, the operation of the ranging system 1 when the operation mode is the calibration mode will be described. The description of the parts common to the measurement mode described above will be omitted as appropriate.

図10は、動作モードがキャリブレーションモードである場合の測距システム1の測定環境を示している。 FIG. 10 shows the measurement environment of the distance measuring system 1 when the operation mode is the calibration mode.

測距システム1がキャリブレーションモードでキャリブレーション処理を実行する場合、測距システム1は、例えば、周囲の明るさが調整された屋内空間に配置される。照射光の照射方向である測距システム1の前方には、照明装置11から照射される照射光を直接検出する発光観測装置101が配置される。あるいはまた、発光観測装置101に代えて、光の反射率が既知の反射板等の反射物体が配置される。測距システム1から発光観測装置101までの距離は、固定の値に設定される。反射物体が配置された場合も同様である。 When the distance measuring system 1 executes the calibration process in the calibration mode, the distance measuring system 1 is arranged in, for example, an indoor space in which the ambient brightness is adjusted. A light emission observation device 101 that directly detects the irradiation light emitted from the illumination device 11 is arranged in front of the ranging system 1 which is the irradiation direction of the irradiation light. Alternatively, instead of the light emission observing device 101, a reflecting object such as a reflector having a known light reflectance is arranged. The distance from the distance measuring system 1 to the light emission observing device 101 is set to a fixed value. The same applies when a reflective object is placed.

測距システム1から固定距離離れた位置に発光観測装置101が配置された状態では、照明装置11から固定距離における照射光の強度(発光強度)や照射範囲などが発光観測装置10で取得される。発光観測装置10で取得されたデータは、ホスト制御部13または他のデータ処理装置へ供給される。 In a state where the light emission observation device 101 is arranged at a position separated from the distance measuring system 1 by a fixed distance, the light emission observation device 10 acquires the intensity (emission intensity) of the irradiation light (emission intensity) and the irradiation range at a fixed distance from the lighting device 11. .. The data acquired by the light emission observing device 10 is supplied to the host control unit 13 or another data processing device.

測距システム1から固定距離離れた位置に反射物体が配置された状態では、照明装置11から照射された照射光が反射物体で反射された反射光が測距センサ12で検出され、反射光の強度(発光強度)や照射範囲などが検査される。測距センサ12で検出されたデータは、ホスト制御部13へ供給される。 In a state where the reflecting object is arranged at a position separated from the distance measuring system 1 by a fixed distance, the irradiation light emitted from the illuminating device 11 is reflected by the reflecting object, and the reflected light is detected by the distance measuring sensor 12 to detect the reflected light. The intensity (light emission intensity) and irradiation range are inspected. The data detected by the distance measuring sensor 12 is supplied to the host control unit 13.

ホスト制御部13は、調整用の設定パラメータを測距センサ12へ供給する。そして、ホスト制御部13は、測距の開始を表す測距開始トリガを測距センサ12へ供給する。測距センサ12は、ホスト制御部13から供給された設定パラメータに基づいて、発光条件を決定し、照明装置11に供給する。ホスト制御部13から測距開始トリガが供給されると、測距センサ12は、発光パルスを生成して照明装置11に供給し、照明装置11を発光させる。 The host control unit 13 supplies the setting parameters for adjustment to the distance measuring sensor 12. Then, the host control unit 13 supplies the distance measurement start trigger indicating the start of distance measurement to the distance measurement sensor 12. The distance measuring sensor 12 determines the light emitting condition based on the setting parameter supplied from the host control unit 13 and supplies the light emitting condition to the lighting device 11. When the distance measurement start trigger is supplied from the host control unit 13, the distance measurement sensor 12 generates a light emitting pulse and supplies the light emission pulse to the lighting device 11 to cause the lighting device 11 to emit light.

図11および図12を参照して、測距システム1から固定距離離れた位置に反射物体を設置し、反射物体で反射された反射光を測距センサ12で検出するキャリブレーション処理の例について説明する。 An example of a calibration process in which a reflecting object is installed at a fixed distance from the distance measuring system 1 and the reflected light reflected by the reflecting object is detected by the distance measuring sensor 12 will be described with reference to FIGS. 11 and 12. do.

図11は、ホスト制御部13から供給された設定パラメータに基づいて、測距センサ12から照明装置11へ、発光条件の一部として供給されるパラメータの制御例を示している。 FIG. 11 shows a control example of parameters supplied from the distance measuring sensor 12 to the lighting device 11 as a part of the light emitting condition based on the setting parameters supplied from the host control unit 13.

例えば、ホスト制御部13は、測距センサ12へ、調整するパラメータの種類(パラメータ名)を表すパラメータAと、パラメータの設定範囲を示す初期値V1および終了値V1endを、設定パラメータとして指定する。 For example, the host control unit 13 designates the parameter A indicating the type (parameter name) of the parameter to be adjusted, the initial value V1 indicating the setting range of the parameter, and the end value V1end to the distance measuring sensor 12 as setting parameters.

測距センサ12は、図11に示されるように、自身の受光動作に応じて、デプスフレーム単位でパラメータAの値が、初期値V1から終了値V1endになるまで、予め決定されたステップ幅STEPで、順次、パラメータAの値を照明装置11へ送信し、切り替える。 As shown in FIG. 11, the ranging sensor 12 has a predetermined step width STEP from the initial value V1 to the end value V1end in units of depth frames according to its own light receiving operation. Then, the value of the parameter A is sequentially transmitted to the lighting device 11 and switched.

より具体的には、ホスト制御部13から測距開始トリガが供給されると、測距センサ12の制御部31および発光タイミング制御部32は、初めに、パラメータAの設定値V1と発光パルスを照明装置11へ出力し、パラメータAの設定値V1による照射光の発光を行わせるとともに、受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光を開始する。 More specifically, when the distance measurement start trigger is supplied from the host control unit 13, the control unit 31 and the light emission timing control unit 32 of the distance measurement sensor 12 first transmit the set value V1 of the parameter A and the light emission pulse. It is output to the lighting device 11 to emit the irradiation light according to the set value V1 of the parameter A, and a light receiving pulse is issued to drive each pixel 71 of the pixel array unit 35 to start light receiving.

測距センサ12は、所定のセンサ起動動作(StartUp)に続いて、パラメータAの設定値V1における反射光を受光し、位相0度と位相180度の第1マイクロフレームを生成し、次に、位相90度と位相270度の第2マイクロフレームを生成する。そして、測距センサ12は、第1マイクロフレームと第2マイクロフレームとに基づいて、第1デプスフレームを生成する。 Following the predetermined sensor start operation (StartUp), the distance measuring sensor 12 receives the reflected light at the set value V1 of the parameter A, generates a first microframe having a phase of 0 degree and a phase of 180 degrees, and then generates a first microframe. A second microframe with 90 degrees and 270 degrees of phase is generated. Then, the distance measuring sensor 12 generates a first depth frame based on the first microframe and the second microframe.

続いて、測距センサ12の制御部31および発光タイミング制御部32は、パラメータAの設定値(V1+STEP)と発光パルスを照明装置11へ出力し、パラメータAの設定値(V1+STEP)による照射光の発光を行わせるとともに、受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光を開始する。 Subsequently, the control unit 31 and the light emission timing control unit 32 of the distance measuring sensor 12 output the set value (V1 + STEP) of the parameter A and the light emitting pulse to the lighting device 11, and the irradiation light according to the set value (V1 + STEP) of the parameter A Along with causing light emission, a light receiving pulse is issued to drive each pixel 71 of the pixel array unit 35 to start light receiving.

測距センサ12は、所定のセンサ起動動作(StartUp)に続いて、パラメータAの設定値(V1+STEP)における反射光を受光し、位相0度と位相180度の第1マイクロフレームを生成し、次に、位相90度と位相270度の第2マイクロフレームを生成する。そして、測距センサ12は、第1マイクロフレームと第2マイクロフレームとに基づいて、第2デプスフレームを生成する。 Following the predetermined sensor start operation (StartUp), the distance measuring sensor 12 receives the reflected light at the set value (V1 + STEP) of the parameter A, generates a first microframe having a phase of 0 degree and a phase of 180 degrees, and then generates a first microframe. In addition, a second microframe having a phase of 90 degrees and a phase of 270 degrees is generated. Then, the ranging sensor 12 generates a second depth frame based on the first microframe and the second microframe.

続いて、測距センサ12の制御部31および発光タイミング制御部32は、パラメータAの設定値(V1+STEP*2)と発光パルスを照明装置11へ出力し、パラメータAの設定値(V1+STEP*2)による照射光の発光を行わせるとともに、受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光を開始する。 Subsequently, the control unit 31 and the light emission timing control unit 32 of the distance measuring sensor 12 output the set value (V1 + STEP * 2) of the parameter A and the light emitting pulse to the lighting device 11, and the set value of the parameter A (V1 + STEP * 2). In addition to causing the irradiation light to be emitted by the above, a light receiving pulse is issued to drive each pixel 71 of the pixel array unit 35 to start light receiving.

測距センサ12は、所定のセンサ起動動作(StartUp)に続いて、パラメータAの設定値(V1+STEP*2)における反射光を受光し、位相0度と位相180度の第1マイクロフレームを生成し、次に、位相90度と位相270度の第2マイクロフレームを生成する。そして、測距センサ12は、第1マイクロフレームと第2マイクロフレームとに基づいて、第3デプスフレームを生成する。 The distance measuring sensor 12 receives the reflected light at the set value (V1 + STEP * 2) of the parameter A following the predetermined sensor start operation (StartUp), and generates the first microframe having a phase of 0 degrees and a phase of 180 degrees. Next, a second microframe having a phase of 90 degrees and a phase of 270 degrees is generated. Then, the distance measuring sensor 12 generates a third depth frame based on the first microframe and the second microframe.

同様の処理が、パラメータAの設定値がV1end=(V1+STEP*(M-1))となるまで繰り返す。パラメータAの各設定値に応じて生成されたデプスフレームは、測距データとして、ホスト制御部13へ供給される。 The same process is repeated until the set value of parameter A becomes V1end = (V1 + STEP * (M-1)). The depth frame generated according to each set value of the parameter A is supplied to the host control unit 13 as distance measurement data.

調整対象の設定パラメータは複数とすることもできる。 There may be a plurality of setting parameters to be adjusted.

図12は、ホスト制御部13から、調整用の設定パラメータとして複数種類の設定パラメータが供給された場合の、測距センサ12から照明装置11へのパラメータの制御例を示している。 FIG. 12 shows an example of controlling parameters from the distance measuring sensor 12 to the lighting device 11 when a plurality of types of setting parameters are supplied from the host control unit 13 as setting parameters for adjustment.

例えば、ホスト制御部13から測距センサ12へ、調整するパラメータの種類(パラメータ名)として、パラメータAとパラメータBが指定され、パラメータAの設定範囲として初期値V1と終了値V1endが、パラメータBの設定範囲として初期値V2と終了値V2endが指定される。 For example, parameter A and parameter B are specified as the type (parameter name) of the parameter to be adjusted from the host control unit 13 to the distance measuring sensor 12, and the initial value V1 and the end value V1end are the parameter B as the setting range of the parameter A. The initial value V2 and the end value V2end are specified as the setting range of.

測距センサ12は、図11に示されるように、2つのパラメータのいずれか一方、例えば、パラメータAの値を初期値V1に設定し、パラメータBの値を初期値V2から終了値V2end(=V2+STEP*3)まで、予め決定されたステップ幅STEPで、順次、切り替える。パラメータAの値が初期値V1であり、パラメータBの値が初期値V2から終了値V2end(=V2+STEP*3)までの各デプスフレームが取得されて、ホスト制御部13へ供給される。 As shown in FIG. 11, the distance measuring sensor 12 sets one of the two parameters, for example, the value of the parameter A to the initial value V1, and sets the value of the parameter B from the initial value V2 to the end value V2end (=). Up to V2 + STEP * 3), the step width STEP is determined in advance, and the steps are sequentially switched. The value of the parameter A is the initial value V1, and each depth frame from the initial value V2 to the end value V2end (= V2 + STEP * 3) is acquired and supplied to the host control unit 13.

次に、測距センサ12は、パラメータAの値を次の設定値(V1+STEP)に設定し、パラメータBの値を初期値V2から終了値V2endまで、予め決定されたステップ幅STEPで、順次、切り替える。パラメータAの値を設定値(V1+STEP)としたときの、パラメータBの値が初期値V2から終了値V2end(=V2+STEP*3)までについて、デプスフレームが取得されて、ホスト制御部13へ供給される。 Next, the distance measuring sensor 12 sets the value of the parameter A to the next set value (V1 + STEP), and sets the value of the parameter B from the initial value V2 to the end value V2end in a predetermined step width STEP. Switch. When the value of parameter A is set as the set value (V1 + STEP), the depth frame is acquired for the value of parameter B from the initial value V2 to the end value V2end (= V2 + STEP * 3) and sent to the host control unit 13. Be supplied.

以下同様に、パラメータAの値が終了値V1endまで順に設定され、全てのパラメータAの値について、パラメータBの値を初期値V2から終了値V2endまでステップ幅STEPで変更したときの各デプスフレームが取得されて、測距データとして、ホスト制御部13へ供給される。 Similarly, the value of parameter A is set in order up to the end value V1end, and for all the values of parameter A, each depth frame when the value of parameter B is changed from the initial value V2 to the end value V2end in the step width STEP It is acquired and supplied to the host control unit 13 as distance measurement data.

上述したキャリブレーションモードにおけるパラメータの制御例として、パラメータAと、調整する設定範囲を示す初期値V1と終了値V1endがホスト制御部13から供給され、測距センサ12は、初期値V1から終了値V1endになるまで、予め決定されたステップ幅STEPで、順次、パラメータの値を変更することとした。 As an example of controlling the parameters in the calibration mode described above, the parameter A, the initial value V1 indicating the setting range to be adjusted, and the end value V1end are supplied from the host control unit 13, and the distance measuring sensor 12 starts from the initial value V1 to the end value. It was decided to change the parameter values sequentially in the predetermined step width STEP until V1end was reached.

しかしながら、ホスト制御部13が、ステップ幅STEPも供給して指定するようにしてもよい。また、上述した例では、ステップ幅STEPをインクリメントする例を説明したが、デクリメントしてパラメータの値を変更してもよい。 However, the host control unit 13 may also supply and specify the step width STEP. Further, in the above-mentioned example, the example of incrementing the step width STEP has been described, but the parameter value may be changed by decrementing.

図12で説明したパラメータ制御例は、調整対象の設定パラメータが2つの例であるが、調整対象の設定パラメータが3種類以上でも同様にパラメータを制御することができる。 In the parameter control example described with reference to FIG. 12, there are two examples of setting parameters to be adjusted, but the parameters can be controlled in the same manner even if there are three or more types of setting parameters to be adjusted.

キャリブレーションモードにおいても、測距センサ12は、自身の受光動作(露光動作)のタイミングを知っているので、自身の動作に合わせて照明装置11のパラメータを変更する制御を行うことができる。 Even in the calibration mode, since the distance measuring sensor 12 knows the timing of its own light receiving operation (exposure operation), it can control to change the parameters of the lighting device 11 according to its own operation.

パラメータの変更に伴い、照明装置11または測距センサ12に所定の設定時間が必要となる場合には、パラメータの切り替えのタイミングで、設定完了までウェイトするウェイト時間を持ってもよい。 When a predetermined set time is required for the lighting device 11 or the distance measuring sensor 12 due to the change of the parameter, a wait time may be set to wait until the setting is completed at the timing of parameter switching.

図11および図12で説明したキャリブレーション処理の例は、デプスフレーム単位でパラメータを変更し、最適な設定値を探索する例であるが、マイクロフレーム単位やデプスマップ単位でパラメータを変更し、最適な設定値を探索してもよい。 The example of the calibration process described with reference to FIGS. 11 and 12 is an example in which the parameters are changed in depth frame units to search for the optimum setting value, but the parameters are changed in microframe units or depth map units to be optimal. You may search for various setting values.

また、図11および図12で説明したキャリブレーション処理の例は、測距システム1から固定距離離れた位置に反射物体を設置し、反射物体で反射された反射光を測距センサ12で受光した結果を取得する例であった。 Further, in the example of the calibration process described with reference to FIGS. 11 and 12, a reflecting object is installed at a position fixed distance away from the ranging system 1, and the reflected light reflected by the reflecting object is received by the ranging sensor 12. It was an example of getting the result.

測距システム1から固定距離離れた位置に発光観測装置101を配置し、照明装置11から照射される照射光を直接検出するキャリブレーション処理では、発光タイミング制御部32が受光パルスを発行して画素アレイ部35の各画素71を駆動し、受光する動作は省略される。 In the calibration process in which the light emission observation device 101 is arranged at a fixed distance from the distance measurement system 1 and the irradiation light emitted from the illumination device 11 is directly detected, the light emission timing control unit 32 issues a light receiving pulse to pixel. The operation of driving each pixel 71 of the array unit 35 and receiving light is omitted.

図13および図14を参照して、キャリブレーションモードにおいて調整されるパラメータの例を説明する。 An example of the parameters adjusted in the calibration mode will be described with reference to FIGS. 13 and 14.

図13は、調整対象のパラメータとして、発光強度を調整する例を示している。 FIG. 13 shows an example of adjusting the emission intensity as a parameter to be adjusted.

図13に示されるように、測距センサ12は、例えば、照明装置11が照射光を発光する際の発光強度を、所定のステップ幅STEPで、インクリメントまたはデクリメントし、最適な発光強度を探索することができる。 As shown in FIG. 13, the distance measuring sensor 12 increments or decrements the light emission intensity when the lighting device 11 emits the irradiation light in a predetermined step width STEP, and searches for the optimum light emission intensity. be able to.

図14は、調整対象のパラメータとして、発光パルスが入力されてから発光するまでの遅延時間tdと、発光開始時の発光強度の傾きを調整する例を示している。 FIG. 14 shows an example of adjusting the delay time td from the input of the light emission pulse to the light emission and the slope of the light emission intensity at the start of light emission as the parameters to be adjusted.

図14に示されるように、照明装置11は、発光パルスが入力されてから発光するまでの遅延時間tdを設定できる機能を有している。図2を参照して説明したように、照明装置11の発光タイミングと、測距センサ12の受光タイミングが、位相0度、位相90度、位相180度、および、位相270度のタイミングとなる必要があるため、発光パルスに対する遅延時間tdを設定することにより、実際の発光タイミングを調整することができる。 As shown in FIG. 14, the lighting device 11 has a function of setting a delay time td from the input of the light emission pulse to the light emission. As described with reference to FIG. 2, the light emission timing of the lighting device 11 and the light reception timing of the distance measuring sensor 12 need to be the timings of phase 0 degree, phase 90 degree, phase 180 degree, and phase 270 degree. Therefore, the actual light emission timing can be adjusted by setting the delay time td for the light emission pulse.

また、照明装置11は、発光開始時に、緩やかに発光強度を立ち上げるか、急峻に発光強度を立ち上げるかなど、発光強度の傾きを調整する機能を有している。緩やかに発光強度を立ち上げた場合には、所望の発光強度になるまで時間がかかり、逆に、急峻に発光強度を立ち上げた場合には、ハンチングが発生したり、最初の発光強度が大きすぎる場合もあるため、発光強度の傾きを調整するパラメータを複数の値に順次設定し、最適な値を探索することができる。 Further, the lighting device 11 has a function of adjusting the inclination of the light emission intensity, such as whether the light emission intensity is gradually increased or the emission intensity is rapidly increased at the start of light emission. When the emission intensity is increased slowly, it takes time to reach the desired emission intensity, and conversely, when the emission intensity is increased steeply, hunting occurs or the initial emission intensity is large. Since it may be too much, it is possible to sequentially set a parameter for adjusting the inclination of the emission intensity to a plurality of values and search for the optimum value.

<6.キャリブレーションモードにおける装置構成例>
図15は、キャリブレーションモードにおける照明装置11と測距センサ12の詳細構成例を示すブロック図である。なお、図15の説明では、図4を参照して説明した測定モードと共通する部分の説明は適宜省略する。図15では、図4と同様に、ホスト制御部13も図示されている。
<6. Device configuration example in calibration mode>
FIG. 15 is a block diagram showing a detailed configuration example of the lighting device 11 and the distance measuring sensor 12 in the calibration mode. In the description of FIG. 15, the description of the portion common to the measurement mode described with reference to FIG. 4 will be omitted as appropriate. In FIG. 15, the host control unit 13 is also shown in the same manner as in FIG.

測距センサ12の制御部31には、ホスト制御部13から、入出力端子39−1を介して調整用の設定パラメータが供給されるとともに、入出力端子39−2を介して測距開始トリガが供給される。制御部31は、設定パラメータと測距開始トリガとに基づいて、測距センサ12全体の動作と、照明装置11とを制御する。 A setting parameter for adjustment is supplied from the host control unit 13 to the control unit 31 of the distance measurement sensor 12 via the input / output terminal 39-1, and a distance measurement start trigger is supplied via the input / output terminal 39-2. Is supplied. The control unit 31 controls the operation of the entire distance measuring sensor 12 and the lighting device 11 based on the setting parameter and the distance measuring start trigger.

より具体的には、制御部31は、ホスト制御部13から供給される、調整するパラメータの種類(パラメータ名)と、パラメータの初期値と終了値とからなる設定範囲に基づいて、パラメータの値を、初期値から終了値まで所定のステップ幅STEPで、順次、画素アレイ部35の受光動作(露光動作)に同期させながら、照明装置11へ入出力端子39−3を介して供給する。 More specifically, the control unit 31 has a parameter value based on a setting range consisting of a parameter type (parameter name) to be adjusted and an initial value and an end value of the parameter supplied from the host control unit 13. Is sequentially synchronized with the light receiving operation (exposure operation) of the pixel array unit 35 in a predetermined step width STEP from the initial value to the end value, and is supplied to the lighting device 11 via the input / output terminals 39-3.

データ処理部37は、カラム処理部36から供給されるAD変換後の各画素71の検出信号に基づいて、各画素71のデプス値dを算出し、各画素の画素値としてデプス値dが格納されたデプスフレームを生成する。また、データ処理部37は、各画素71の検出信号に基づいて信頼度confを算出し、各画素の画素値として信頼度confが格納されたデプスフレームに対応する信頼度フレームも生成する。デプスマップ単位で、パラメータが変更される場合には、デプスマップと信頼度マップも生成される。 The data processing unit 37 calculates the depth value d of each pixel 71 based on the detection signal of each pixel 71 after AD conversion supplied from the column processing unit 36, and stores the depth value d as the pixel value of each pixel. Generates the depth frame. Further, the data processing unit 37 calculates the reliability conf based on the detection signal of each pixel 71, and also generates a reliability frame corresponding to the depth frame in which the reliability conf is stored as the pixel value of each pixel. Depth maps and reliability maps are also generated when the parameters are changed on a depth map basis.

出力IF38は、データ処理部37から供給されるデプスフレームと信頼度フレームを、入出力端子39−5の信号フォーマット(例えば、MIPI:Mobile Industry Processor Interface)に変換し、入出力端子39−5から出力する。入出力端子39−5から出力されたデプスフレームと信頼度フレームは、測距データとしてホスト制御部13に供給される。デプスマップおよび信頼度マップが生成された場合には、それらも測距データとしてホスト制御部13に供給される。 The output IF 38 converts the depth frame and the reliability frame supplied from the data processing unit 37 into the signal format of the input / output terminal 39-5 (for example, MIPI: Mobile Industry Processor Interface), and converts the depth frame and the reliability frame from the input / output terminal 39-5. Output. The depth frame and the reliability frame output from the input / output terminals 39-5 are supplied to the host control unit 13 as distance measurement data. When the depth map and the reliability map are generated, they are also supplied to the host control unit 13 as distance measurement data.

照明装置11と測距センサ12との間の信号接続端子が、SPIまたはI2Cのシリアル通信端子である場合、調整対象のパラメータの指定や、パラメータの設定値を、レジスタを用いて複雑かつ詳細な設定が可能となる。 When the signal connection terminal between the lighting device 11 and the distance measuring sensor 12 is an SPI or I2C serial communication terminal, the parameter to be adjusted and the parameter setting value can be specified in a complicated and detailed manner by using a register. It can be set.

<キャリブレーションモードによる測定処理のフローチャート>
次に、図16のフローチャートを参照して、動作モードがキャリブレーションモードである場合の測距システム1による測定処理について説明する。なお、図11で説明した1種類のパラメータAの最適値を探索するキャリブレーション処理を実行する場合を例に、図16の測定処理を説明する。この処理は、例えば、ホスト制御部13から、調整用の設定パラメータが供給されたとき、開始される。
<Flowchart of measurement process in calibration mode>
Next, the measurement process by the distance measuring system 1 when the operation mode is the calibration mode will be described with reference to the flowchart of FIG. The measurement process of FIG. 16 will be described by taking as an example the case of executing the calibration process for searching for the optimum value of one type of parameter A described with reference to FIG. This process is started, for example, when the host control unit 13 supplies a setting parameter for adjustment.

初めに、ステップS21において、測距センサ12の制御部31は、ホスト制御部13から供給された、調整用の設定パラメータを取得し、内部のメモリに記憶する。図11の例では、例えば、パラメータの種類を表すパラメータAと、パラメータの設定範囲を示す初期値V1および終了値V1endが、調整用の設定パラメータとしてホスト制御部13から供給される。 First, in step S21, the control unit 31 of the distance measuring sensor 12 acquires the setting parameters for adjustment supplied from the host control unit 13 and stores them in the internal memory. In the example of FIG. 11, for example, the parameter A indicating the type of the parameter, the initial value V1 indicating the parameter setting range, and the end value V1end are supplied from the host control unit 13 as setting parameters for adjustment.

ステップS22において、制御部31は、ステップ幅STEPの変更数をカウントする変数Mに、初期値としての1を代入する。 In step S22, the control unit 31 substitutes 1 as an initial value into the variable M that counts the number of changes in the step width STEP.

ステップS23において、制御部31は、ホスト制御部13から、測距開始トリガが供給されたかを判定し、測距開始トリガが供給されるまで待機する。 In step S23, the control unit 31 determines whether the distance measurement start trigger has been supplied from the host control unit 13, and waits until the distance measurement start trigger is supplied.

ステップS23で、測距開始トリガが供給されたと判定された場合、処理はステップS24に進み、制御部31は、パラメータAの設定値として初期値V1を入出力端子39−3を介して照明装置11へ供給し、パラメータAの値を初期値V1に設定する。 If it is determined in step S23 that the distance measurement start trigger has been supplied, the process proceeds to step S24, and the control unit 31 sets the initial value V1 as the set value of the parameter A to the lighting device via the input / output terminals 39-3. It supplies to 11 and sets the value of parameter A to the initial value V1.

ステップS25において、制御部31は、発光パルスを照明装置11に出力させ、照明装置11に照射光の発光を行わせるとともに、自身による受光動作を開始する。より具体的には、制御部31は、発光タイミング制御部32に発光パルスを生成、出力させることにより、照明装置11に照射光の発光を行わせる。また、制御部31は、発光タイミング制御部32に受光パルスを生成、出力させることにより、画素アレイ部35の受光動作を開始する。照明装置11は、パラメータAを初期値V1に設定し、照射光を発光する。なお、詳細説明は省略するが、パラメータA以外の光源設定情報についても、測定モードのときと同様に設定されている。 In step S25, the control unit 31 outputs a light emitting pulse to the lighting device 11, causes the lighting device 11 to emit the irradiation light, and starts a light receiving operation by itself. More specifically, the control unit 31 causes the lighting device 11 to emit the irradiation light by generating and outputting the light emission pulse to the light emission timing control unit 32. Further, the control unit 31 starts the light receiving operation of the pixel array unit 35 by causing the light emitting timing control unit 32 to generate and output a light receiving pulse. The lighting device 11 sets the parameter A to the initial value V1 and emits the irradiation light. Although detailed description is omitted, the light source setting information other than the parameter A is also set in the same manner as in the measurement mode.

ステップS26において、画素アレイ部35の各画素71は、画素変調部33と画素制御部34の制御にしたがい、照明装置11から照射された照射光が物体で反射されて返ってきた反射光を受光し、受光量に応じた検出信号を画素単位にデータ処理部37に供給する。 In step S26, each pixel 71 of the pixel array unit 35 receives the reflected light that is reflected by the object and returned from the irradiation light emitted from the illumination device 11 in accordance with the control of the pixel modulation unit 33 and the pixel control unit 34. Then, a detection signal corresponding to the amount of received light is supplied to the data processing unit 37 in pixel units.

ステップS27において、データ処理部37は、各画素71の検出信号に基づいて、デプスフレームと信頼度フレームを算出する。算出されたデプスフレームと信頼度フレームは、出力IF38で入出力端子39−5の信号フォーマットに変換された後、測距データとして入出力端子39−5からホスト制御部13へ出力される。 In step S27, the data processing unit 37 calculates the depth frame and the reliability frame based on the detection signal of each pixel 71. The calculated depth frame and reliability frame are converted into the signal format of the input / output terminals 39-5 by the output IF 38, and then output as distance measurement data from the input / output terminals 39-5 to the host control unit 13.

ステップS28において、制御部31は、パラメータAを、ホスト制御部13から指定された終了値V1endまで設定して測定したかを判定する。 In step S28, the control unit 31 determines whether the measurement is performed by setting the parameter A up to the end value V1end specified by the host control unit 13.

ステップS28で、まだパラメータAの終了値V1endまで設定して測定していないと判定された場合、処理はステップS29に進み、制御部31は、ステップ幅STEPの変更数をカウントする変数Mを1だけインクリメントし、パラメータAの値を、(V1+STEP*M)に設定し、処理をステップS25に戻す。これにより、上述したステップS25ないしS28が再度実行され、まだ測定していないパラメータAの値が照明装置11に設定され、受光動作が行われる。 If it is determined in step S28 that the end value V1end of the parameter A has not been set and the measurement has not been performed, the process proceeds to step S29, and the control unit 31 sets the variable M for counting the number of changes in the step width STEP to 1. Increment only, set the value of parameter A to (V1 + STEP * M), and return the process to step S25. As a result, the above-mentioned steps S25 to S28 are executed again, the value of the parameter A that has not been measured is set in the lighting device 11, and the light receiving operation is performed.

一方、ステップS28で、パラメータAを、指定された終了値V1endまで設定して測定したと判定された場合、キャリブレーションモードによる測定処理が終了する。 On the other hand, if it is determined in step S28 that the parameter A is set up to the designated end value V1end and the measurement is performed, the measurement process in the calibration mode ends.

以上のように、キャリブレーションモードにおいては、測距システム1は、測距開始トリガが供給される前に、パラメータの種類と、初期値および終了値で特定される設定範囲とを含む調整用の設定パラメータをホスト制御部13から取得し、ホスト制御部13から指定された設定範囲に含まれる各パラメータの値を、順次、照明装置11に設定し、指定された各パラメータの値に基づく測定(受光動作)を行うことができる。測距システム1は、ホスト制御部13からステップ幅STEPも供給された場合には、ホスト制御部13から指定されたステップ幅STEPで、パラメータの値を順次変更して測定を行う。 As described above, in the calibration mode, the distance measuring system 1 is used for adjustment including the parameter type and the setting range specified by the initial value and the ending value before the distance measuring start trigger is supplied. The setting parameters are acquired from the host control unit 13, the values of each parameter included in the setting range specified by the host control unit 13 are sequentially set in the lighting device 11, and the measurement based on the values of the specified parameters ( Light receiving operation) can be performed. When the host control unit 13 also supplies the step width STEP, the distance measuring system 1 performs measurement by sequentially changing the parameter values in the step width STEP specified by the host control unit 13.

測定モードとキャリブレーションモードとは、ホスト制御部13から、発光条件の複数種類の設定値を一度に取得し、ホスト制御部13からの測距開始トリガに対して、複数種類の設定値を順次照明装置11に設定して、所望の発光条件に基づく測距データを順次取得できる点で共通する。 In the measurement mode and the calibration mode, a plurality of types of setting values of light emission conditions are acquired at once from the host control unit 13, and a plurality of types of setting values are sequentially applied to the distance measurement start trigger from the host control unit 13. It is common in that it can be set in the lighting device 11 to sequentially acquire distance measurement data based on desired light emission conditions.

以上のように、測距センサ12が、照明装置11に設定する複数種類の設定値を取得し、自身の動作に合わせて、照明装置11の複数種類の設定値を変更する制御を行うことにより、ホスト制御部13は照明装置11の制御を行う必要がなくなる。そして、測距センサ12が自身の動作に合わせたタイミングで照明装置11の設定値を変更する制御を実行することにより、照明装置11の制御を高速に行うことができる。短時間でキャリブレーション処理を実行することができるので、出荷前検査や受入検査の時間を短縮できることにより、装置全体としての製造コストの低減に寄与することができる。 As described above, the distance measuring sensor 12 acquires a plurality of types of setting values set in the lighting device 11 and controls to change the plurality of types of setting values of the lighting device 11 according to its own operation. , The host control unit 13 does not need to control the lighting device 11. Then, the distance measuring sensor 12 can control the lighting device 11 at high speed by executing the control of changing the set value of the lighting device 11 at the timing according to its own operation. Since the calibration process can be executed in a short time, the time for pre-shipment inspection and acceptance inspection can be shortened, which can contribute to the reduction of the manufacturing cost of the entire device.

図16のキャリブレーションモードによる測定処理は、測距システム1から固定距離離れた位置に、光の反射率が既知の反射板等の反射物体が配置され、測距センサ12による反射光の受光結果に基づいて、パラメータの最適値を探索(調整)する場合の処理である。 In the measurement process in the calibration mode of FIG. 16, a reflecting object such as a reflector having a known light reflectance is arranged at a position separated from the distance measuring system 1 by a fixed distance, and the result of receiving the reflected light by the distance measuring sensor 12 This is a process for searching (adjusting) the optimum value of a parameter based on.

測距システム1から固定距離離れた位置に発光観測装置101を配置し、発光観測装置101により照射光を直接検出する検出結果に基づいてパラメータの最適値を探索(調整)する場合には、ステップS25における画素アレイ部35の受光動作を開始する処理と、ステップS26およびS27の処理が省略される。 When the light emission observation device 101 is arranged at a position separated from the distance measurement system 1 by a fixed distance and the optimum value of the parameter is searched (adjusted) based on the detection result of directly detecting the irradiation light by the light emission observation device 101, the step is performed. The process of starting the light receiving operation of the pixel array unit 35 in S25 and the process of steps S26 and S27 are omitted.

<7.測定中のキャリブレーション処理>
測距センサ12は、測定モードによる距離測定の合間にも、上述したキャリブレーションモードによるキャリブレーション処理を実行することができる。この場合、図17に示されるように、データ処理部37が算出したデプスフレームおよび信頼度フレーム、デプスマップおよび信頼度マップなどの測距データが、制御部31にも供給され、制御部31が、測距データに基づいて、キャリブレーション処理の実行が必要か否かを判断する。
<7. Calibration process during measurement>
The distance measuring sensor 12 can execute the calibration process in the calibration mode described above even between the distance measurements in the measurement mode. In this case, as shown in FIG. 17, distance measurement data such as the depth frame and the reliability frame, the depth map and the reliability map calculated by the data processing unit 37 are also supplied to the control unit 31, and the control unit 31 also supplies the distance measurement data. , Determine whether it is necessary to execute the calibration process based on the distance measurement data.

図18は、図8に示した測定モードの測定シーケンスと同じ、3種類の発光条件A、B、Cで測定を行う例を示している。 FIG. 18 shows an example in which measurement is performed under three types of light emission conditions A, B, and C, which are the same as the measurement sequence in the measurement mode shown in FIG.

測距センサ12は、図18に示されるように、測距開始トリガに基づいて、所定の測距データを生成および出力してから、次の測距開始、すなわち、次に測距開始トリガが供給されるまでの期間に、キャリブレーション処理を実行することができる。例えば、ホスト制御部13側で何らかの演算を行っている期間や、測定待機を表す信号であるWait Vsyncの期間、Vblank期間などにおいて、キャリブレーション処理を実行することができる。 As shown in FIG. 18, the distance measurement sensor 12 generates and outputs predetermined distance measurement data based on the distance measurement start trigger, and then the next distance measurement start, that is, the next distance measurement start trigger is performed. The calibration process can be performed in the period until it is supplied. For example, the calibration process can be executed during a period in which some calculation is performed on the host control unit 13 side, a Wait Vsync period which is a signal indicating measurement standby, a Vblank period, and the like.

図19のフローチャートを参照して、距離測定中のキャリブレーション処理について説明する。この処理は測定モードで実行されるので、発光条件と測距開始トリガが、ホスト制御部13から供給されたとき、開始される。 The calibration process during distance measurement will be described with reference to the flowchart of FIG. Since this process is executed in the measurement mode, it is started when the light emission condition and the distance measurement start trigger are supplied from the host control unit 13.

初めに、ステップS41において、測距センサ12の制御部31は、複数の発光条件を照明装置11に設定し、デプスマップおよび信頼度マップを生成するための距離測定制御を行う。この処理は、図9で説明した測定モードにおける測定処理全体の制御と同様である。 First, in step S41, the control unit 31 of the distance measuring sensor 12 sets a plurality of light emitting conditions in the lighting device 11, and performs distance measurement control for generating a depth map and a reliability map. This process is similar to the control of the entire measurement process in the measurement mode described with reference to FIG.

ステップS42で、制御部31は、測距データが生成されたかを判定する。測距データが生成されると、生成された測距データが制御部31にも供給されるので、制御部31は、測距データが生成されたことを判定することができる。 In step S42, the control unit 31 determines whether the distance measurement data has been generated. When the distance measurement data is generated, the generated distance measurement data is also supplied to the control unit 31, so that the control unit 31 can determine that the distance measurement data has been generated.

ステップS42で、測距データが生成されていないと判定された場合、処理がステップS41へ戻され、ステップS41の処理が継続して実行される。したがって、ホスト制御部13から供給された測距開始トリガに対応して出力される測距データが生成されるまで、ステップS41の距離測定制御が継続して実行される。 If it is determined in step S42 that the ranging data has not been generated, the process is returned to step S41, and the process of step S41 is continuously executed. Therefore, the distance measurement control in step S41 is continuously executed until the distance measurement data output corresponding to the distance measurement start trigger supplied from the host control unit 13 is generated.

ステップS42で、測距データが生成されたと判定された場合、処理はステップS43に進み、制御部31は、照明装置11を制御するパラメータの確認が必要であるかを判定する。制御部31は、例えば、照明装置11または測距センサ12に内部温度を検出する温度センサが設けられており、温度センサで検出された温度に一定値以上の変化があった場合に、パラメータの確認が必要であると判定することができる。あるいはまた、測定対象の被写体の距離が変化した場合などに、パラメータの確認が必要であると判定することができる。さらには、取得された測距データに、環境光等に起因するノイズの変化があった場合にも、パラメータの確認が必要であると判定することができる。 If it is determined in step S42 that the ranging data has been generated, the process proceeds to step S43, and the control unit 31 determines whether it is necessary to confirm the parameters that control the lighting device 11. The control unit 31 is provided with, for example, a temperature sensor for detecting the internal temperature in the lighting device 11 or the distance measuring sensor 12, and when the temperature detected by the temperature sensor changes by a certain value or more, the parameter It can be determined that confirmation is required. Alternatively, it can be determined that the parameters need to be confirmed when the distance of the subject to be measured changes. Furthermore, it can be determined that it is necessary to confirm the parameters even when there is a change in noise due to ambient light or the like in the acquired ranging data.

ステップS43で、パラメータの確認が必要ではないと判定された場合、処理はステップS44に進み、制御部31は、次の測距開始トリガがホスト制御部13から供給されたかを判定し、次の測距開始トリガが供給されたと判定されるまで待機する。そして、ステップS44で、次の測距開始トリガが供給されたと判定された場合、処理がステップS41に戻され、デプスマップおよび信頼度マップを生成するための距離測定制御が実行される。 If it is determined in step S43 that the parameter confirmation is not necessary, the process proceeds to step S44, and the control unit 31 determines whether the next distance measurement start trigger has been supplied from the host control unit 13, and then proceeds to the next step. Wait until it is determined that the distance measurement start trigger has been supplied. Then, when it is determined in step S44 that the next distance measurement start trigger has been supplied, the process is returned to step S41, and the distance measurement control for generating the depth map and the reliability map is executed.

一方、ステップS43で、パラメータの確認が必要であると判定された場合、処理はステップS45に進み、制御部31は、キャリブレーション処理を実行する。この処理は、図16のフローチャートで説明したキャリブレーションモードによる測定処理と基本的に同様であるが、調整用の設定パラメータがホスト制御部13から供給されるのではなく、ホスト制御部13が、現在の設定値に基づいてパラメータの種類と設定範囲を決定し、実行する点が異なる。例えば、環境光等に起因するノイズの影響が大きいと判定された場合、発光強度を現在の設定値から大きくするような設定値が採用され、照明装置11に設定される。反対に、環境光等に起因するノイズの影響が小さいと判定された場合、発光強度を現在の設定値から小さくするような設定値が採用され、照明装置11に設定される。 On the other hand, if it is determined in step S43 that the parameter needs to be confirmed, the process proceeds to step S45, and the control unit 31 executes the calibration process. This process is basically the same as the measurement process in the calibration mode described in the flowchart of FIG. 16, but the host control unit 13 does not supply the setting parameters for adjustment from the host control unit 13. The difference is that the parameter type and setting range are determined based on the current setting value and executed. For example, when it is determined that the influence of noise caused by ambient light or the like is large, a set value for increasing the emission intensity from the current set value is adopted and set in the lighting device 11. On the contrary, when it is determined that the influence of noise caused by ambient light or the like is small, a set value for reducing the emission intensity from the current set value is adopted and set in the lighting device 11.

ステップS45のキャリブレーション処理が終了すると、ホスト制御部13は、ステップS46に進み、キャリブレーション処理で取得された測定結果に基づいて、パラメータの最適値を選択して、設定を変更する。 When the calibration process in step S45 is completed, the host control unit 13 proceeds to step S46, selects the optimum value of the parameter based on the measurement result acquired in the calibration process, and changes the setting.

ステップS46の後、処理はステップS44に進む。そして、次の測距開始トリガが供給されるまで待機し、次の測距開始トリガが供給された場合、処理がステップS41に戻され、デプスマップおよび信頼度マップを生成する次の距離測定制御が実行される。 After step S46, the process proceeds to step S44. Then, it waits until the next distance measurement start trigger is supplied, and when the next distance measurement start trigger is supplied, the process is returned to step S41, and the next distance measurement control that generates the depth map and the reliability map is generated. Is executed.

以上のように、測距システム1は、測定モードによる距離測定の合間(距離測定の終了から、次の距離測定の開始までの間)にも、上述したキャリブレーションモードによるキャリブレーション処理を実行することができる。これにより、測定中の温度変化や外光変化等の環境変化に対応することができ、測距精度の劣化を低減することができる。 As described above, the distance measuring system 1 also executes the calibration process in the above-mentioned calibration mode between the distance measurements in the measurement mode (from the end of the distance measurement to the start of the next distance measurement). be able to. As a result, it is possible to respond to environmental changes such as temperature changes and external light changes during measurement, and it is possible to reduce deterioration of distance measurement accuracy.

なお、ホスト制御部13が、取得した測距データに基づいて、照明装置11のパラメータの確認が必要であるか否かを判定してもよい。この場合、ホスト制御部13から供給される発光条件を、キャリブレーションのためのパラメータ設定値とすれば、測定モードによる測定処理と同様に、キャリブレーション処理を実行することができる。 The host control unit 13 may determine whether or not it is necessary to confirm the parameters of the lighting device 11 based on the acquired distance measurement data. In this case, if the light emitting condition supplied from the host control unit 13 is a parameter set value for calibration, the calibration process can be executed in the same manner as the measurement process in the measurement mode.

<8.測距センサのチップ構成例>
図20は、測距センサ12のチップ構成例を示す斜視図である。
<8. Distance measurement sensor chip configuration example>
FIG. 20 is a perspective view showing a chip configuration example of the distance measuring sensor 12.

測距センサ12は、図20のAに示されるように、第1のダイ(基板)141と、第2のダイ(基板)142とが積層された1つのチップで構成することができる。 As shown in FIG. 20A, the distance measuring sensor 12 can be composed of one chip in which the first die (board) 141 and the second die (board) 142 are laminated.

第1のダイ141には、例えば、受光部としての画素アレイ部35が少なくとも配置され、第2のダイ142には、例えば、画素アレイ部35から出力される検出信号を用いて、デプスフレームやデプスマップを生成する処理などを行うデータ処理部37などが配置される。 For example, a pixel array unit 35 as a light receiving unit is arranged on the first die 141, and a depth frame or a depth frame or a depth frame is used on the second die 142 by using, for example, a detection signal output from the pixel array unit 35. A data processing unit 37 or the like that performs processing for generating a depth map or the like is arranged.

なお、測距センサ12は、第1のダイ141と第2のダイ142とに加えて、もう1つのロジックダイを積層した3層で構成したり、4層以上のダイ(基板)の積層で構成してもよい。 The distance measuring sensor 12 may be composed of three layers in which another logic die is laminated in addition to the first die 141 and the second die 142, or may be composed of four or more layers of dies (boards). It may be configured.

また、測距センサ12の一部の機能は、測距センサ12とは別の信号処理チップで行う構成とすることもできる。例えば、図20のBに示されるように、測距センサ12としてのセンサチップ151と、後段の信号処理を行うロジックチップ152とを中継基板153上に形成して構成することができる。ロジックチップ152には、上述した測距センサ12のデータ処理部37が行う処理の一部、例えば、デプスフレームやデプスマップを生成する処理などを行う構成とすることができる。 Further, some functions of the distance measuring sensor 12 may be performed by a signal processing chip different from the distance measuring sensor 12. For example, as shown in B of FIG. 20, the sensor chip 151 as the distance measuring sensor 12 and the logic chip 152 that performs signal processing in the subsequent stage can be formed on the relay board 153. The logic chip 152 may be configured to perform a part of the processing performed by the data processing unit 37 of the distance measuring sensor 12 described above, for example, a processing for generating a depth frame or a depth map.

<9.他の発光制御方法との比較>
上述の測距システム1は、照明装置11の発光条件をホスト制御部13から測距センサ12へ供給し、測距センサ12が、取得した発光条件に基づいて照明装置11の発光を制御する構成とされていた。
<9. Comparison with other light emission control methods>
The distance measuring system 1 described above supplies the light emitting conditions of the lighting device 11 from the host control unit 13 to the distance measuring sensor 12, and the distance measuring sensor 12 controls the light emission of the lighting device 11 based on the acquired light emitting conditions. Was supposed to be.

これに対して、図21に示されるように、ホスト制御部181が、発光条件を照明装置183へ供給し、発光条件に対応する受光条件を測距センサ182に供給する方法も考えられる。発光条件に対応する受光条件には、例えば、変調周波数や、発光期間に対応する露光期間などがある。測距開始トリガは、図1の測距システム1と同様に、ホスト制御部181から測距センサ182へ供給され、発光パルスは、測距センサ182で生成されて、照明装置183へ供給される。 On the other hand, as shown in FIG. 21, a method in which the host control unit 181 supplies the light emitting condition to the lighting device 183 and the light receiving condition corresponding to the light emitting condition is supplied to the ranging sensor 182 is also conceivable. The light receiving conditions corresponding to the light emitting conditions include, for example, a modulation frequency, an exposure period corresponding to the light emitting period, and the like. The distance measurement start trigger is supplied from the host control unit 181 to the distance measurement sensor 182 as in the distance measurement system 1 of FIG. 1, and the light emitting pulse is generated by the distance measurement sensor 182 and supplied to the lighting device 183. ..

このような制御方法においては、ホスト制御部181が、発光条件を変更するため、新たな発光条件を照明装置183へ供給しようとする場合、照明装置183の発光を一時的に止める必要が有るので、発光パルスの出力を止める必要があり、そのため、測距センサ182の動作も一時的に止める必要がある。発光パルスは、測距開始トリガの受信による測距開始動作に同期して生成、出力されるので、発光パルスの出力を止めた場合、ホスト制御部181は、測距開始トリガを、再度、出力する必要がある。 In such a control method, since the host control unit 181 changes the light emitting condition, when trying to supply a new light emitting condition to the lighting device 183, it is necessary to temporarily stop the light emitting of the lighting device 183. Therefore, it is necessary to stop the output of the emission pulse, and therefore, it is also necessary to temporarily stop the operation of the distance measuring sensor 182. Since the light emitting pulse is generated and output in synchronization with the distance measurement start operation by receiving the distance measurement start trigger, when the output of the light emission pulse is stopped, the host control unit 181 outputs the distance measurement start trigger again. There is a need to.

図22は、図21の測距システムのように、ホスト制御部181が発光条件を照明装置183へ供給するホスト制御方式の場合と、図1の測距システム1のように、測距センサ12が発光条件を照明装置11へ供給する測距センサ制御方式の場合の制御シーケンスを比較して示した図である。 22 shows a host control system in which the host control unit 181 supplies light emission conditions to the lighting device 183 as in the distance measurement system of FIG. 21, and a distance measurement sensor 12 as in the distance measurement system 1 of FIG. It is a figure which compared and showed the control sequence in the case of the distance measuring sensor control system which supplies light emission condition to a lighting apparatus 11.

なお、図22における発光条件の変更例としては、図11で説明した、パラメータAの値を、初期値V1から終了値V1endまで変更して測距データを取得する場合の例としている。 As an example of changing the light emission condition in FIG. 22, the value of the parameter A described in FIG. 11 is changed from the initial value V1 to the end value V1end to acquire the distance measurement data.

図22上段に示されるホスト制御方式では、上述したように、発光条件としてのパラメータAの値を変更する場合、発光パルスを止めるために、測距センサ182の動作を止める必要があるため、パラメータAの設定(出力)、測距開始トリガの出力、および、測距センサ182の駆動停止、の一連の処理を繰り返す必要がある。 In the host control method shown in the upper part of FIG. 22, as described above, when the value of the parameter A as the light emission condition is changed, it is necessary to stop the operation of the distance measuring sensor 182 in order to stop the light emission pulse. It is necessary to repeat a series of processes of setting (output) A, outputting the distance measurement start trigger, and driving / stopping the distance measurement sensor 182.

これに対して、図22下段に示される測距センサ制御方式では、測距センサ12が、パラメータAの設定と、発光パルスの出力開始および出力停止の両方を制御し、画素アレイ部35の受光動作(露光動作)も自身の制御であるので、自身の動作に合わせて、パラメータAの設定と、発光パルスの出力開始および出力停止とを繰り返し実行する制御を行うことができる。 On the other hand, in the distance measuring sensor control method shown in the lower part of FIG. 22, the distance measuring sensor 12 controls both the setting of the parameter A and the output start and output stop of the emission pulse, and receives light from the pixel array unit 35. Since the operation (exposure operation) is also its own control, it is possible to perform control for repeatedly executing the setting of the parameter A and the output start and output stop of the emission pulse according to the own operation.

したがって、測距システム1の測距センサ制御方式によれば、高速にパラメータ設定(変更)が可能となり、短時間でキャリブレーション処理および通常の距離測定処理を実行することができる。出荷前検査で実施されるキャリブレーション処理の時間を短縮できることにより、装置全体としての製造コストの低減に寄与することができる。 Therefore, according to the distance measurement sensor control method of the distance measurement system 1, parameters can be set (changed) at high speed, and calibration processing and normal distance measurement processing can be executed in a short time. By shortening the time required for the calibration process performed in the pre-shipment inspection, it is possible to contribute to the reduction of the manufacturing cost of the entire device.

また、発光条件の切り替えの制御に関してホスト制御部13が関与しないため、ホスト制御部13自身は、測距開始トリガ出力後、停止状態(待機状態)とすることができるので、測距システム1が組み込まれているホスト装置全体の低消費電力にも貢献することができる。 Further, since the host control unit 13 is not involved in the control of switching the light emission condition, the host control unit 13 itself can be put into a stop state (standby state) after the distance measurement start trigger output, so that the distance measurement system 1 can be used. It can also contribute to the low power consumption of the entire embedded host device.

上述した測距システム1の発光条件変更の制御方法は、indirect ToF方式の測距システムに限定されず、Structured Light方式やdirectToFの測距システムにも適用できる。 The control method for changing the light emission condition of the distance measuring system 1 described above is not limited to the indirect ToF type ranging system, but can also be applied to the Structured Light method and the direct ToF distance measuring system.

<10.電子機器への適用例>
上述した測距システム1は、例えば、スマートフォン、タブレット型端末、携帯電話機、パーソナルコンピュータ、ゲーム機、テレビ受像機、ウェアラブル端末、デジタルスチルカメラ、デジタルビデオカメラなどの電子機器に搭載することができる。
<10. Application example to electronic devices>
The distance measuring system 1 described above can be mounted on electronic devices such as smartphones, tablet terminals, mobile phones, personal computers, game machines, television receivers, wearable terminals, digital still cameras, and digital video cameras.

図23は、測距システム1を搭載した電子機器としてのスマートフォンの構成例を示すブロック図である。 FIG. 23 is a block diagram showing a configuration example of a smartphone as an electronic device equipped with the distance measuring system 1.

図23に示すように、スマートフォン201は、測距モジュール202、撮像装置203、ディスプレイ204、スピーカ205、マイクロフォン206、通信モジュール207、センサユニット208、タッチパネル209、および制御ユニット210が、バス211を介して接続されて構成される。また、制御ユニット210では、CPUがプログラムを実行することによって、アプリケーション処理部221およびオペレーションシステム処理部222としての機能を備える。 As shown in FIG. 23, in the smartphone 201, the distance measuring module 202, the image pickup device 203, the display 204, the speaker 205, the microphone 206, the communication module 207, the sensor unit 208, the touch panel 209, and the control unit 210 are connected via the bus 211. Is connected and configured. Further, the control unit 210 has functions as an application processing unit 221 and an operating system processing unit 222 by executing a program by the CPU.

測距モジュール202には、図1の測距システム1が適用される。例えば、測距モジュール202は、スマートフォン201の前面に配置され、スマートフォン201のユーザを対象とした測距を行うことにより、そのユーザの顔や手、指などの表面形状のデプス値を測距結果として出力することができる。図1のホスト制御部13は、図23の制御ユニット210に対応する。 The distance measuring system 1 of FIG. 1 is applied to the distance measuring module 202. For example, the distance measuring module 202 is arranged in front of the smartphone 201, and by performing distance measurement for the user of the smartphone 201, the depth value of the surface shape of the user's face, hand, finger, etc. is measured as a distance measurement result. Can be output as. The host control unit 13 of FIG. 1 corresponds to the control unit 210 of FIG.

撮像装置203は、スマートフォン201の前面に配置され、スマートフォン201のユーザを被写体とした撮像を行うことにより、そのユーザが写された画像を取得する。なお、図示しないが、スマートフォン201の背面にも撮像装置203が配置された構成としてもよい。 The image pickup device 203 is arranged in front of the smartphone 201, and takes an image of the user of the smartphone 201 as a subject to acquire an image of the user. Although not shown, the image pickup device 203 may be arranged on the back surface of the smartphone 201.

ディスプレイ204は、アプリケーション処理部221およびオペレーションシステム処理部222による処理を行うための操作画面や、撮像装置203が撮像した画像などを表示する。スピーカ205およびマイクロフォン206は、例えば、スマートフォン201により通話を行う際に、相手側の音声の出力、および、ユーザの音声の収音を行う。 The display 204 displays an operation screen for performing processing by the application processing unit 221 and the operation system processing unit 222, an image captured by the image pickup apparatus 203, and the like. The speaker 205 and the microphone 206, for example, output the voice of the other party and collect the voice of the user when making a call by the smartphone 201.

通信モジュール207は、通信ネットワークを介した通信を行う。センサユニット208は、速度や加速度、近接などをセンシングし、タッチパネル209は、ディスプレイ204に表示されている操作画面に対するユーザによるタッチ操作を取得する。 The communication module 207 communicates via the communication network. The sensor unit 208 senses speed, acceleration, proximity, etc., and the touch panel 209 acquires a touch operation by the user on the operation screen displayed on the display 204.

アプリケーション処理部221は、スマートフォン201によって様々なサービスを提供するための処理を行う。例えば、アプリケーション処理部221は、測距モジュール202から供給されるデプスマップに基づいて、ユーザの表情をバーチャルに再現したコンピュータグラフィックスによる顔を作成し、ディスプレイ204に表示する処理を行うことができる。また、アプリケーション処理部221は、測距モジュール202から供給されるデプスマップに基づいて、例えば、任意の立体的な物体の三次元形状データを作成する処理を行うことができる。 The application processing unit 221 performs processing for providing various services by the smartphone 201. For example, the application processing unit 221 can create a face by computer graphics that virtually reproduces the user's facial expression based on the depth map supplied from the distance measuring module 202, and can perform a process of displaying the face on the display 204. .. Further, the application processing unit 221 can perform a process of creating, for example, three-dimensional shape data of an arbitrary three-dimensional object based on the depth map supplied from the distance measuring module 202.

オペレーションシステム処理部222は、スマートフォン201の基本的な機能および動作を実現するための処理を行う。例えば、オペレーションシステム処理部222は、測距モジュール202から供給されるデプスマップに基づいて、ユーザの顔を認証し、スマートフォン201のロックを解除する処理を行うことができる。また、オペレーションシステム処理部222は、測距モジュール202から供給されるデプスマップに基づいて、例えば、ユーザのジェスチャを認識する処理を行い、そのジェスチャに従った各種の操作を入力する処理を行うことができる。 The operation system processing unit 222 performs processing for realizing the basic functions and operations of the smartphone 201. For example, the operation system processing unit 222 can perform a process of authenticating the user's face and unlocking the smartphone 201 based on the depth map supplied from the distance measuring module 202. Further, the operation system processing unit 222 performs, for example, a process of recognizing a user's gesture based on the depth map supplied from the distance measuring module 202, and performs a process of inputting various operations according to the gesture. Can be done.

このように構成されているスマートフォン201では、上述した測距システム1を適用することで、例えば、高精度かつ高速にデプスマップを生成することができる。これにより、スマートフォン201は、測距情報をより正確に検出することができる。 In the smartphone 201 configured in this way, by applying the distance measuring system 1 described above, for example, a depth map can be generated with high accuracy and high speed. As a result, the smartphone 201 can detect the distance measurement information more accurately.

<11.移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
<11. Application example to mobile>
The technology according to the present disclosure (the present technology) can be applied to various products. For example, the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.

図24は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 FIG. 24 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.

車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図24に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。 The vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001. In the example shown in FIG. 24, the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050. Further, as a functional configuration of the integrated control unit 12050, a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown.

駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。 The drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs. For example, the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.

ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。 The body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs. For example, the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps. In this case, the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches. The body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.

車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。 The vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000. For example, the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030. The vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image. The vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.

撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。 The imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received. The image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.

車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。 The in-vehicle information detection unit 12040 detects information in the vehicle. For example, a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040. The driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.

マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。 The microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit. A control command can be output to 12010. For example, the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 Further, the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。 Further, the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030. For example, the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.

音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。 The audio-image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle. In the example of FIG. 17, an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices. The display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.

図25は、撮像部12031の設置位置の例を示す図である。 FIG. 25 is a diagram showing an example of the installation position of the imaging unit 12031.

図25では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。 In FIG. 25, the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, 12105 as imaging units 12031.

撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。 The imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100. The imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100. The imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100. The imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100. The images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.

なお、図25には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。 Note that FIG. 25 shows an example of the photographing range of the imaging units 12101 to 12104. The imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose, the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively, and the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103. The imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.

撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。 At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information. For example, at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 For example, the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。 For example, the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is used via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.

撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。
マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays. For example, the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. Such pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian. The display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.

以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、車外情報検出ユニット12030や車内情報検出ユニット12040に適用され得る。具体的には、車外情報検出ユニット12030や車内情報検出ユニット12040として測距システム1による測距を利用することで、運転者のジェスチャを認識する処理を行い、そのジェスチャに従った各種(例えば、オーディオシステム、ナビゲーションシステム、エアーコンディショニングシステム)の操作を実行したり、より正確に運転者の状態を検出することができる。また、測距システム1による測距を利用して、路面の凹凸を認識して、サスペンションの制御に反映させたりすることができる。 The example of the vehicle control system to which the technique according to the present disclosure can be applied has been described above. The technique according to the present disclosure can be applied to the vehicle exterior information detection unit 12030 and the vehicle interior information detection unit 12040 among the configurations described above. Specifically, by using the distance measurement by the distance measurement system 1 as the outside information detection unit 12030 and the inside information detection unit 12040, processing for recognizing the driver's gesture is performed, and various types according to the gesture (for example, It can perform operations on audio systems, navigation systems, air conditioning systems) and detect the driver's condition more accurately. Further, the distance measurement by the distance measurement system 1 can be used to recognize the unevenness of the road surface and reflect it in the control of the suspension.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 The present techniques described above and below in the present specification can be independently implemented independently as long as there is no contradiction. Of course, any plurality of the present technologies can be used in combination. It is also possible to carry out a part or all of any of the above-mentioned techniques in combination with other techniques not described above.

また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Further, for example, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). On the contrary, the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit). Further, of course, a configuration other than the above may be added to the configuration of each device (or each processing unit). Further, if the configuration and operation of the entire system are substantially the same, a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..

さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Further, in the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and effects other than those described in the present specification may be obtained.

なお、本技術は、以下の構成を取ることができる。
(1)
照明装置から照射された照射光が物体で反射されて返ってきた反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、
他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部と
を備える測距センサ。
(2)
前記制御部は、前記他の装置から前記パラメータの初期値と終了値を取得し、前記パラメータの初期値から所定のステップ幅で前記パラメータの値を変更して、前記照明装置に設定する
前記(1)に記載の測距センサ。
(3)
前記所定のステップ幅は、予め決定されている
前記(2)に記載の測距センサ。
(4)
前記所定のステップ幅は、前記他の装置から供給される
前記(2)または(3)に記載の測距センサ。
(5)
前記制御部は、第1のパラメータと第2のパラメータの2種類のパラメータについて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する
前記(1)乃至(4)のいずれかに記載の測距センサ。
(6)
前記制御部は、前記パラメータの値ごとに、前記画素アレイ部の受光動作も行わせる
前記(1)乃至(5)のいずれかに記載の測距センサ。
(7)
前記制御部は、前記パラメータの値ごとに、前記画素アレイ部の受光動作で生成された測距データを、前記他の装置へ出力する
前記(6)に記載の測距センサ。
(8)
前記パラメータは、前記照射光の発光強度に対応するパラメータである
前記(1)乃至(7)のいずれかに記載の測距センサ。
(9)
前記パラメータは、前記照明装置へ発光パルスが入力されてから発光するまでの遅延時間に対応するパラメータである
前記(1)乃至(8)のいずれかに記載の測距センサ。
(10)
前記パラメータは、前記照射光の発光強度の傾きに対応するパラメータである
前記(1)乃至(9)のいずれかに記載の測距センサ。
(11)
前記制御部は、前記パラメータの確認が必要であるかを判定し、必要であると判定された場合に、前記パラメータの複数の値を前記照明装置に順次設定する
前記(1)乃至(10)のいずれかに記載の測距センサ。
(12)
前記制御部は、前記照明装置または前記測距センサの温度に一定値以上の変化があった場合に、パラメータの確認が必要であると判定する
前記(11)に記載の測距センサ。
(13)
前記制御部は、測定対象の被写体の距離に変化があった場合に、パラメータの確認が必要であると判定する
前記(11)または(12)に記載の測距センサ。
(14)
前記制御部は、測定データにノイズの変化があった場合に、パラメータの確認が必要であると判定する
前記(11)乃至(13)のいずれかに記載の測距センサ。
(15)
前記制御部は、距離測定の終了から、次の距離測定の開始までの間に、前記パラメータの複数の値を前記照明装置に順次設定する
前記(11)乃至(14)のいずれかに記載の測距センサ。
(16)
物体に照射光を照射する照明装置と、
前記照射光が前記物体で反射されて返ってきた反射光を受光する測距センサと
を備え、
前記測距センサは、
前記反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、
他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部と
を備える
測距システム。
(17)
物体に照射光を照射する照明装置と、
前記照射光が前記物体で反射されて返ってきた反射光を受光する測距センサと
を備え、
前記測距センサは、
前記反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、
他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部と
を備える
測距システム
を備える電子機器。
The present technology can have the following configurations.
(1)
A pixel array unit in which pixels that receive the reflected light that is reflected by an object and output a detection signal according to the amount of light received are two-dimensionally arranged.
A distance measuring sensor including a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.
(2)
The control unit acquires the initial value and the end value of the parameter from the other device, changes the value of the parameter by a predetermined step width from the initial value of the parameter, and sets the value in the lighting device. The ranging sensor according to 1).
(3)
The distance measuring sensor according to (2) above, wherein the predetermined step width is determined in advance.
(4)
The distance measuring sensor according to (2) or (3), wherein the predetermined step width is supplied from the other device.
(5)
The control unit sequentially sets a plurality of values of the parameters in the lighting device for two types of parameters, the first parameter and the second parameter, and controls the light emission of the lighting device (1) to (1). The distance measuring sensor according to any one of 4).
(6)
The distance measuring sensor according to any one of (1) to (5), wherein the control unit also performs a light receiving operation of the pixel array unit for each value of the parameter.
(7)
The distance measuring sensor according to (6), wherein the control unit outputs distance measurement data generated by a light receiving operation of the pixel array unit to the other device for each value of the parameter.
(8)
The distance measuring sensor according to any one of (1) to (7) above, wherein the parameter is a parameter corresponding to the emission intensity of the irradiation light.
(9)
The distance measuring sensor according to any one of (1) to (8) above, wherein the parameter is a parameter corresponding to a delay time from the input of a light emitting pulse to the lighting device to the light emission.
(10)
The distance measuring sensor according to any one of (1) to (9) above, wherein the parameter is a parameter corresponding to an inclination of the emission intensity of the irradiation light.
(11)
The control unit determines whether or not the parameter needs to be confirmed, and if it is determined that the parameter needs to be confirmed, a plurality of values of the parameter are sequentially set in the lighting device (1) to (10). The ranging sensor according to any one of.
(12)
The distance measuring sensor according to (11), wherein the control unit determines that it is necessary to confirm the parameters when the temperature of the lighting device or the distance measuring sensor changes by a certain value or more.
(13)
The distance measuring sensor according to (11) or (12) above, wherein the control unit determines that it is necessary to confirm the parameters when the distance of the subject to be measured changes.
(14)
The distance measuring sensor according to any one of (11) to (13) above, wherein the control unit determines that it is necessary to confirm the parameters when there is a change in noise in the measurement data.
(15)
The control unit according to any one of (11) to (14), wherein a plurality of values of the parameters are sequentially set in the lighting device from the end of the distance measurement to the start of the next distance measurement. Distance measurement sensor.
(16)
A lighting device that irradiates an object with irradiation light,
It is provided with a distance measuring sensor that receives the reflected light that is reflected by the object and returned.
The distance measuring sensor is
A pixel array unit in which pixels that receive the reflected light and output a detection signal according to the amount of light received are two-dimensionally arranged.
A distance measuring system including a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.
(17)
A lighting device that irradiates an object with irradiation light,
It is provided with a distance measuring sensor that receives the reflected light that is reflected by the object and returned.
The distance measuring sensor is
A pixel array unit in which pixels that receive the reflected light and output a detection signal according to the amount of light received are two-dimensionally arranged.
An electronic device including a distance measuring system including a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.

1 測距システム, 11 照明装置, 12 測距センサ, 13 ホスト制御部, 31 制御部, 32 発光タイミング制御部, 33 画素変調部, 35 画素アレイ部, 37 データ処理部, 51 発光制御部, 52 発光源, 71 画素, 101 発光観測装置, 201 スマートフォン, 202 測距モジュール 1 Distance measurement system, 11 Lighting device, 12 Distance measurement sensor, 13 Host control unit, 31 Control unit, 32 Emission timing control unit, 33 Pixel modulation unit, 35 Pixel array unit, 37 Data processing unit, 51 Emission control unit, 52 Light emission source, 71 pixels, 101 light emission observation device, 201 smartphone, 202 distance measurement module

Claims (17)

照明装置から照射された照射光が物体で反射されて返ってきた反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、
他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部と
を備える測距センサ。
A pixel array unit in which pixels that receive the reflected light that is reflected by an object and output a detection signal according to the amount of light received are two-dimensionally arranged.
A distance measuring sensor including a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.
前記制御部は、前記他の装置から前記パラメータの初期値と終了値を取得し、前記パラメータの初期値から所定のステップ幅で前記パラメータの値を変更して、前記照明装置に設定する
請求項1に記載の測距センサ。
The control unit acquires the initial value and the end value of the parameter from the other device, changes the value of the parameter by a predetermined step width from the initial value of the parameter, and sets the value in the lighting device. The ranging sensor according to 1.
前記所定のステップ幅は、予め決定されている
請求項2に記載の測距センサ。
The distance measuring sensor according to claim 2, wherein the predetermined step width is determined in advance.
前記所定のステップ幅は、前記他の装置から供給される
請求項2に記載の測距センサ。
The distance measuring sensor according to claim 2, wherein the predetermined step width is supplied from the other device.
前記制御部は、第1のパラメータと第2のパラメータの2種類のパラメータについて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する
請求項1に記載の測距センサ。
The first aspect of claim 1, wherein the control unit sequentially sets a plurality of values of the parameters in the lighting device for two types of parameters, the first parameter and the second parameter, and controls the light emission of the lighting device. Distance measurement sensor.
前記制御部は、前記パラメータの値ごとに、前記画素アレイ部の受光動作も行わせる
請求項1に記載の測距センサ。
The distance measuring sensor according to claim 1, wherein the control unit also performs a light receiving operation of the pixel array unit for each value of the parameter.
前記制御部は、前記パラメータの値ごとに、前記画素アレイ部の受光動作で生成された測距データを、前記他の装置へ出力する
請求項6に記載の測距センサ。
The distance measuring sensor according to claim 6, wherein the control unit outputs distance measurement data generated by a light receiving operation of the pixel array unit to the other device for each value of the parameter.
前記パラメータは、前記照射光の発光強度に対応するパラメータである
請求項1に記載の測距センサ。
The distance measuring sensor according to claim 1, wherein the parameter is a parameter corresponding to the emission intensity of the irradiation light.
前記パラメータは、前記照明装置へ発光パルスが入力されてから発光するまでの遅延時間に対応するパラメータである
請求項1に記載の測距センサ。
The distance measuring sensor according to claim 1, wherein the parameter corresponds to a delay time from the input of a light emitting pulse to the lighting device to the time when the light is emitted.
前記パラメータは、前記照射光の発光強度の傾きに対応するパラメータである
請求項1に記載の測距センサ。
The distance measuring sensor according to claim 1, wherein the parameter is a parameter corresponding to an inclination of the emission intensity of the irradiation light.
前記制御部は、前記パラメータの確認が必要であるかを判定し、必要であると判定された場合に、前記パラメータの複数の値を前記照明装置に順次設定する
請求項1に記載の測距センサ。
The distance measuring unit according to claim 1, wherein the control unit determines whether or not the parameter needs to be confirmed, and if it is determined that the parameter needs to be confirmed, a plurality of values of the parameter are sequentially set in the lighting device. Sensor.
前記制御部は、前記照明装置または前記測距センサの温度に一定値以上の変化があった場合に、パラメータの確認が必要であると判定する
請求項11に記載の測距センサ。
The distance measuring sensor according to claim 11, wherein the control unit determines that it is necessary to confirm the parameters when the temperature of the lighting device or the distance measuring sensor changes by a certain value or more.
前記制御部は、測定対象の被写体の距離に変化があった場合に、パラメータの確認が必要であると判定する
請求項11に記載の測距センサ。
The distance measuring sensor according to claim 11, wherein the control unit determines that it is necessary to confirm the parameters when the distance of the subject to be measured changes.
前記制御部は、測定データにノイズの変化があった場合に、パラメータの確認が必要であると判定する
請求項11に記載の測距センサ。
The distance measuring sensor according to claim 11, wherein the control unit determines that it is necessary to confirm the parameters when there is a change in noise in the measurement data.
前記制御部は、距離測定の終了から、次の距離測定の開始までの間に、前記パラメータの複数の値を前記照明装置に順次設定する
請求項11に記載の測距センサ。
The distance measuring sensor according to claim 11, wherein the control unit sequentially sets a plurality of values of the parameters in the lighting device from the end of the distance measurement to the start of the next distance measurement.
物体に照射光を照射する照明装置と、
前記照射光が前記物体で反射されて返ってきた反射光を受光する測距センサと
を備え、
前記測距センサは、
前記反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、
他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部と
を備える
測距システム。
A lighting device that irradiates an object with irradiation light,
It is provided with a distance measuring sensor that receives the reflected light that is reflected by the object and returned.
The distance measuring sensor is
A pixel array unit in which pixels that receive the reflected light and output a detection signal according to the amount of light received are two-dimensionally arranged.
A distance measuring system including a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.
物体に照射光を照射する照明装置と、
前記照射光が前記物体で反射されて返ってきた反射光を受光する測距センサと
を備え、
前記測距センサは、
前記反射光を受光し、受光量に応じた検出信号を出力する画素が2次元配置された画素アレイ部と、
他の装置からの測定開始指示に基づいて、前記照明装置に、パラメータの複数の値を順次設定し、前記照明装置の発光を制御する制御部と
を備える
測距システム
を備える電子機器。
A lighting device that irradiates an object with irradiation light,
It is provided with a distance measuring sensor that receives the reflected light that is reflected by the object and returned.
The distance measuring sensor is
A pixel array unit in which pixels that receive the reflected light and output a detection signal according to the amount of light received are two-dimensionally arranged.
An electronic device including a distance measuring system including a control unit that sequentially sets a plurality of values of parameters in the lighting device based on a measurement start instruction from another device and controls light emission of the lighting device.
JP2020003768A 2020-01-14 2020-01-14 Ranging sensor, ranging system, and electronic device Pending JP2021110679A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020003768A JP2021110679A (en) 2020-01-14 2020-01-14 Ranging sensor, ranging system, and electronic device
PCT/JP2020/049096 WO2021145212A1 (en) 2020-01-14 2020-12-28 Distance measurement sensor, distance measurement system, and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020003768A JP2021110679A (en) 2020-01-14 2020-01-14 Ranging sensor, ranging system, and electronic device

Publications (1)

Publication Number Publication Date
JP2021110679A true JP2021110679A (en) 2021-08-02

Family

ID=76863751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020003768A Pending JP2021110679A (en) 2020-01-14 2020-01-14 Ranging sensor, ranging system, and electronic device

Country Status (2)

Country Link
JP (1) JP2021110679A (en)
WO (1) WO2021145212A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5800082B2 (en) * 2012-03-01 2015-10-28 日産自動車株式会社 Distance measuring device and distance measuring method
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US9170095B1 (en) * 2014-04-08 2015-10-27 Sony Corporation Distance detection device and method including dynamically adjusted frame rate
JP6626603B2 (en) * 2017-10-31 2019-12-25 ソニーセミコンダクタソリューションズ株式会社 Imaging device and imaging system

Also Published As

Publication number Publication date
WO2021145212A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
TWI814804B (en) Distance measurement processing apparatus, distance measurement module, distance measurement processing method, and program
WO2021085128A1 (en) Distance measurement device, measurement method, and distance measurement system
JP7321834B2 (en) Lighting device and ranging module
JP7414440B2 (en) Distance sensor
JP7305535B2 (en) Ranging device and ranging method
WO2020031496A1 (en) Time measurement device and time measurement apparatus
WO2017195459A1 (en) Imaging device and imaging method
WO2021106624A1 (en) Distance measurement sensor, distance measurement system, and electronic apparatus
WO2021145212A1 (en) Distance measurement sensor, distance measurement system, and electronic apparatus
US20220381917A1 (en) Lighting device, method for controlling lighting device, and distance measurement module
JP2020173128A (en) Ranging sensor, signal processing method, and ranging module
WO2021065500A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
WO2021065494A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
WO2021106623A1 (en) Distance measurement sensor, distance measurement system, and electronic apparatus
WO2021106625A1 (en) Distance measurement sensor, distance measurement system, and electronic device
WO2021065495A1 (en) Ranging sensor, signal processing method, and ranging module
WO2023079830A1 (en) Distance measurement device and light detection element
US20220413144A1 (en) Signal processing device, signal processing method, and distance measurement device
TWI834726B (en) Distance measuring systems, calibration methods, program products and electronic machines
WO2023281810A1 (en) Distance measurement device and distance measurement method
WO2020203331A1 (en) Signal processing device, signal processing method, and ranging module
JP2022185168A (en) Light receiving element and method for driving the same, and ranging system
JP2021099271A (en) Distance measuring device, control method therefor, and electronic apparatus